본문 내용 바로 이동합니다.
자본시장포커스

자본시장과 금융투자업에 관련된 주요 이슈를 분석하고 최신 동향을 제공하는 격주간지

요약
□ 금융회사들은 고객서비스, 알고리즘 트레이딩 및 로보어드바이저, 관리ㆍ감독 등 다양한 영역에 AI를 도입하며 생산성 향상과 서비스 혁신을 도모
□ AI의 활용이 급격하게 확대되면서 딥페이크나 사이버 공격과 같은 악의적 사용뿐 아니라 데이터 품질 저하 및 편향, AI에 대한 과신 등 복합적 리스크가 부각
□ 해외 주요국들은 기존 금융 규제 적용을 기본으로 하되, AI 특화 가이드라인과 원칙을 보완하고 모니터링 역량을 강화하는 방향으로 대응
□ 국내에서도 금융권의 AI 활용 지원 방안을 발표하여 AI 플랫폼 구축 및 금융 분야 특화 데이터 지원, 관련 가이드라인 개정을 추진함으로써 금융 분야의 AI 활용에 따른 불확실성을 해소하고 신뢰도 제고를 기대
□ 금융권에서는 인공지능(AI) 기술 도입이 급격히 확대되며 고객서비스, 거래 관련, 내부 운영 관리ㆍ감독 등 다양한 영역에서 광범위하게 활용
— AI 도입과 함께 머신러닝 기법의 보편화, 2022년 이후에는 대규모 언어모델(LLM) 등 생성형 AI의 등장으로 활용 범위가 더욱 확대
・기존의 AI는 주로 패턴 인식, 예측 모델링 등 정형화된 업무 자동화에 집중되었으나, 생성형 AI는 자연어 이해 및 생성 능력을 기반으로 보다 복잡한 커뮤니케이션과 고차원적인 업무 처리까지 가능
・금융 분야의 글로벌 생성형 AI 시장 규모는 2023년 8억 4,750만달러에서 2024년에는 10억달러를 넘어섰고 계속 증가하여 2033년에는 104억 330만달러 규모에 다다를 것으로 전망1)
・IOSCO 조사에 따르면, 금융기관들은 AI를 고객과의 커뮤니케이션에 가장 많이 활용하며, 알고리즘 트레이딩, 로보어드바이저, 감독, 거래 처리 순으로 적용하고 있는 것으로 나타남2)


□ 금융회사들은 챗봇, 생성형 AI, 알고리즘 트레이딩, 로보어드바이저 등 다양한 형태의 AI 기술을 활용하여 효율성과 자동화를 추구       
— 챗봇과 가상 어시스턴트와 같은 AI 기반의 고객지원 도구 확산으로 고객 응대 서비스의 질이 향상
・고객이 기업 공시나 시세 정보를 질문하면 AI 챗봇이 실시간으로 응답하고, 모의 거래 가격산출이나 주문 실행 서비스도 제공
・내부적으로 콜센터 직원 지원을 위해 회사의 정책/업무 매뉴얼로 학습된 LLM 챗봇을 활용하여 신속한 고객 대응이 가능 
・또한 생성형 AI는 대화형 보고서 작성, 투자 제안서 등 마케팅 자료 작성에도 활용
・하지만 AI가 잠재적으로 잘못된 정보를 제공할 수 있다는 점을 고려할 때, 단순문의 응답과 같은 반복적인 저위험 업무에는 활용이 가능하나 민감한 고객 응대 업무에는 신중한 접근이 요구됨3)
— 투자은행과 증권사 등은 거래 전략 수립과 주문 실행 등 알고리즘 트레이딩 및 투자 의사결정에 AI를 활용 
・알고리즘 트레이딩에서 시장 데이터 처리, 가격예측, 포트폴리오 리밸런싱 등에 머신러닝 기반 모델이 사용
・과거 데이터로 미래 가격을 예측하거나 시장심리를 분석하며, 뉴스와 소셜미디어 등의 비정형 데이터를 이용한 빅데이터 분석에도 활용
・다만 복잡한 AI 알고리즘은 연산 부담과 지연(latency) 문제가 있어 초단타매매 등 초고속 트레이딩에는 한계가 있을 수 있음4)
— 뿐만 아니라 자산운용사와 투자자문사들은 로보어드바이저를 통해 자동화된 투자자문 및 자산관리 서비스를 제공
・AI가 개인별 투자성향을 분석해 맞춤형 포트폴리오를 추천하는 등 개인투자자 대상 디지털 자산관리에 활용
— AI는 내부 운영 및 감독 부문과 규제 준수 및 리스크관리에도 활용
・거래소 및 증권사는 시장감시, 이상거래 탐지, 자금세탁방지(AML) 등 다양한 규제 이슈에 AI 활용이 가능
・머신러닝은 실시간으로 대규모 거래 데이터를 분석해 의심거래 패턴을 식별하여 전통 기법 대비 더 높은 탐지율을 보이는 사례도 보고5)
・사무 처리 자동화(Transaction Processing and Automation)를 위해 거래 전후 정형화된 업무에 AI를 활용하고 일부 금융사는 자체 코드 생성 및 분석을 위한 AI 모델을 개발하여 레거시 코드 개선이나 오류 검출에 활용

□ 이와 같이 AI 활용이 금융권 전반에서 급속히 확대됨에 따라 투자자 보호와 시장 무결성 측면에서 여러 위험 요인이 부각
— AI의 악의적 사용과 사이버보안 위협은 금융시장 신뢰를 저해할 수 있는 중대한 위험으로 인식
・딥페이크나 AI로 생성된 가짜뉴스가 시장조작이나 사기에 악용될 경우, 투자자가 디지털 정보의 진위 여부를 판별하기 어려워져 금융시장 전반의 신뢰가 약화될 수 있음​
・생성형 AI는 현실과 유사한 콘텐츠를 고도화된 방식으로 생성하여 허위 정보와 실제 정보를 식별하기 어렵게 만듦6)
・AI를 활용한 자동화된 해킹, 취약점 스캐닝, 봇넷(botnet)7) 생성 등으로 보안 위협이 증가하며 기존 방어체계를 우회하는 공격 가능성 확대
— 또한 AI의 성능과 결과의 적정성은 학습 데이터와 모델 품질에 좌우되는데, 이와 관련된 다양한 위험이 존재
・딥러닝이나 LLM 기반 모델은 구조가 복잡하여 내부 의사결정 과정을 사람이 이해하거나 설명하기 어려워 금융상품이나 서비스에 AI를 활용할 경우, 모델이 어떤 근거로 특정 결과를 도출했는지 투명하게 설명하기 어려워 투자자에게 충분한 정보를 제공하지 못할 가능성
・또한 인터넷, 소셜미디어 데이터를 학습한 모델은 내재된 편향(Bias)을 반영할 수 있어 금융서비스에서 특정 집단을 차별하거나, 자사 이익에 편향된 판단을 내리는 등 불공정한 결과를 초래할 수 있음
・과거에 전례가 없는 극단적 시장 상황에 대해서는 데이터 자체가 부족하여, 예상치 못한 부정확한 결과를 도출할 수 있음
— 금융회사들이 직접 AI를 개발하기보다 외부 기술에 의존하는 경향이 커지면서, 이에 따른 제3자 의존성 및 집중도 리스크 문제도 대두
・첨단 AI 개발에는 막대한 데이터 및 전문인력이 필요하여 빅테크 기업들이 AI 서비스 시장을 과점하게 될 가능성이 높으며, 실제로 빅테크 기업들이 초거대 AI 개발을 위해 대규모 데이터센터를 경쟁적으로 구축 중이며, 이로 인해 소수 공급자에 대한 집중도 위험이 증가
・금융회사들이 이런 외부 AI 플랫폼을 사용할 경우, 일부 공급자는 IOSCO 관할 외 비규제 대상일 수 있어 금융당국의 감독이 미치지 않는 사각지대가 존재
・또한 클라우드 아웃소싱과 유사하게, 금융권이 공통된 외부 AI 서비스에 의존하면 그 서비스 장애나 오류 시 다수 기관이 동시에 영향을 받아 업무 중단 등 운영 리스크가 시스템적으로 확대될 가능성
— AI 의사결정에 대한 인간의 개입과 감독이 적절히 이뤄지지 않을 경우, 여러 문제가 발생할 위험
・금융사가 AI를 이용한 서비스나 의사결정을 내놓을 때 감독 미비 시 투자자 피해나 법규 위반 가능성이 존재하고 더 나아가 AI의 결정과정이 복잡할 경우 실제 법 위반 발생 시 책임소재 규명이 어려울 수 있음
・급속한 기술 발전에 비해 인재 확보나 내부통제시스템이 미진한 경우 AI의 오작동이나 비합리적인 판단이 적시에  발견ㆍ시정되지 않을 위험이 존재
・AI가 효율적이라는 전제하에 무비판적으로 수용하는 과신 문제도 주요 리스크

□ AI 활용 확대에 따른 발생 가능성 위험에 대비하기 위해 각국의 금융당국은 기존 규율체계 내에서 AI를 감독하거나, 필요한 경우 별도 지침이나 규제를 마련하는 등 다양한 방식으로 대응
— 다수의 국가들은 AI도 기존 금융법규와 감독원칙하에 관리 가능하다는 입장으로 기술 중립적인 규제 원칙을 채택8)
・공시, 광고, 위험관리, 사이버보안, 투자자 보호 등 기존 규정을 AI가 활용된 부분에 동일하게 적용
・이처럼 현행 체계를 활용하는 접근은 유연성이 높고 새로운 법개정 없이도 대응이 가능하지만, AI 특유의 복잡성과 불확실성으로 인해 기존 제도로 포괄되지 않을 경우 보완이 필요할 수 있음
— IOSCO 회원국들도 기존 규제 틀을 활용하되 별도의 법적 요구사항 또는 가이드라인을 제정하고 AI 특화된 규제 체계를 수립
・AI 관련 리스크를 전문적으로 관리하기 위해 전담 조직을 설치하고 기술 및 리스크 대응 역량 강화를 위한 내부 직원 대상 교육 프로그램을 확대하며, 국내외 기관 간 협력을 통해 정보 공유 및 공동대응을 추진하고, 규제 샌드박스 프로그램을 운영하여 안전한 도입을 지원
・미국, 영국, 홍콩은 기존 금융 규제 프레임워크를 기반으로 AI 활용 실태를 점검하고 리스크에 대응
・유럽 및 일본, 싱가포르, 호주, 캐나다 등은 AI의 특수성 및 고위험성을 반영하여 별도의 특화된 가이드라인 마련


□ 국내 금융당국도 AI 플랫폼 구축, 금융 분야 특화 데이터 제공, 관련 가이드라인 개정 등을 포함한 금융권 AI 활용 지원 방안을 마련함으로써, AI 도입에 따른 불확실성을 완화하고 금융 서비스 전반의 신뢰성과 안정성을 높이고자 함
— 국내에서도 2024년 12월 ‘금융권 생성형 AI 활용 지원 방안’을 발표하며 AI 활용 확산에 따른 활용상의 문제점을 파악하고 이를 해결하기 위한 지원 방안을 마련9)
・AI 기술이 급속히 발전하고 있음에도 불구하고, 금융사들이 내부 역량 부족, 데이터 활용 한계, 법적 불확실성 등으로 인해 AI 도입과 운영에 어려움을 겪고 있는 점을 반영해 마련된 조치
・이에 금융권 AI 플랫폼을 구축하고 금융 분야에 적합한 정형ㆍ비정형 데이터를 가공하고 배포하여 모델 학습 기반을 강화하는 한편, 기존 AI 관련 규제의 모호성을 보완하여 가이드라인을 개정할 계획
・이는 금융당국이 2025년 업무계획에서 금융사가 AI 서비스를 개발하고 활용할 수 있도록 ‘금융권 통합 AI 가이드라인’을 마련하여 활성화에 힘쓰겠다고 밝힌 데 따른 조치10)
— 이와 같은 금융권 AI 활용 지원방안은 AI 활용의 불확실성을 해소하고 제도적 기반을 확립하기 위한 목적
・금융사들이 안전하고 책임감 있게 AI를 도입하고 운영할 수 있는 환경을 마련
1) Grand View Research., 2024, Generative AI In Financial Services Market Size Report, 2030.
2) IOSCO, 2025. 3, Artificial Intelligence in Capital Markets: Use Cases, Risks, and Challenges.
3) Financial times, 2025. 1. 27, Balancing risk with reward: the financial services AI success story. 
4) AI2 people, 2025. 1. 7, The impact of AI on high-frequency trading.
5) 영국 옥스퍼드 대학교 연구팀이 개발한 MIND(Machine-learning In-network for Detection) 시스템은 초당 6.4테라비트의 처리량과 마이크로초 단위의 지연으로 실시간 거래 사기를 탐지하여 기존보다 800배 이상의 거래를 처리(Hong, X., Zheng, C., Zilberman, N., 2024, In-network machine learning for real-time transaction fraud detection. InECAI 2024, 2902-2909)
6) IMF, 2023. 8, Generative Artificial Intelligence in Finance: Risk Considerations.
7) 봇넷(botnet)은 로봇 네트워크의 줄임말로 한 공격자가 제어하는 악성소프트웨어에 감염된 컴퓨터 네트워크를 의미
8) IOSCO, 2025. 3, Artificial Intelligence in Capital Markets: Use Cases, Risks, and Challenges.
9) 금융위원회, 2024. 12, 금융권 생성형 AI 활용 지원방안, 보도자료. 
10) 금융위원회, 2025. 1. 8, 2025년 주요업무 추진계획, 보도자료; 금융감독원, 2025. 2. 10, 2025년도 금융감독원 업무계획, 보도자료.