
여의도 금융감독원 전경 / 사진= 한국금융신문
금융감독원(원장 이복현닫기

김병칠닫기

일상 생활 AI 사례를 보면, 뱅크오브아메리카(BoA)의 AI 금융비서는 소비자의 금융·비금융 정보를 학습해 일 평균 150만명의 이용자에게 음성 계좌조회 및 자금이체 등 다양한 금융서비스를 제공한다.
영국의 핀테크기업 클레오(Cleo)는 생성형 AI를 활용하여 초개인화된 금융조언을 제공하는 자산관리서비스를 제공한다.
홍콩의 금융사 직원은 딥페이크 기술에 속아 거액을 송금하는 금융사기 피해를 입었으며, 해외 각국에서는 딥보이스를 악용한 피싱범죄가 지속 발생하고 있다. 또 LG AI연구원은 생성형 AI 기술을 활용하여 알츠하이머와 암의 발병원인을 분석하고 치료제 효과까지 예측하는 AI 모델 개발을 추진한다.
AI 정책 주무부처인 과학기술정보통신부 이은규 인공지능확산팀장은 AI 일상화 등 2024년도 AI 정책방향을 소개하고, AI 발전과 신뢰성 확보를 균형있게 달성하기 위해 마련 중인 인공지능 법(안)의 주요내용과 향후 제도정비 과제를 금융권에 공유했다.
법안의 주요 내용은 고위험 AI의 정의 및 사업자 책무, AI 위원회 구성 및 윤리원칙 등을 포함한다. 고위험 AI 판단기준 및 신뢰성 확보조치, 민간 자율 AI 윤리위원회 표준 등이 과제라고 했다.
과기부는 또 금융권과 질의·응답을 통해 AI 정책관련 현장의견을 수렴하고 규제 불확실성 해소를 통한 AI 산업 활성화를 추진하겠다고 밝혔다.
이화영 LG AI연구원 상무는 생성형 AI가 다양한 입력형태(멀티모달AI)를 이해하고 스스로 데이터를 수집·가공(액셔너블AI)하면서 전문지식이 필요한 업무까지 수행이 가능해져 생산성을 높이는데 기여할 것으로 예측했다. 클라우드 기반의 초거대 언어모델 대비 데이터 보안에 강점이 있는 온-프레미스(On-premise) 기반의 생성형 AI 시스템 활용이 매우 중요해질 것으로 전망했다.
건전한 AI 활용방안 및 금융권 AI 활용사례도 공유했다.
권태경 연세대 교수는 국내·외 대규모 언어모델(LLM)의 기술적 특성과 데이터 흐름 중심의 AI 동작방식을 소개하고, 언어모델의 악용, 플러그인 취약점 등 대규모 언어모델의 7대 주요 보안위협 및 발생원인을 진단했다. 접근계정 보안강화, 올바른 언어모델 확장 프로그램 사용 등을 통한 생성형 AI의 안전한 활용방안을 제시했다.
패널토론에 참석한 조영서 KB 지주 부사장은 생성형 AI 기술검증 사례에 기반한 AI 거버넌스 구축 경험을 공유했다. 19개 업무에 대한 자체 AI 기술검증 결과 기존 대비 약 20~50% 수준의 생산성을 개선했다. 안전한 AI 활용을 위한 KB 윤리기준 및 AI 위험도 분류기준 등 위험관리 정책, 통제 프로세스 수립방향을 소개했다.
안성희 신한카드 상무는 9개 분야 170여개 AI 모델 운영현황과 AI 트랜스포메이션 추진방안을 소개했다.
김성수 교보생명 상무는 파일럿으로 진행한 교보GPT와 챗봇 등 다양한 AI 활용서비스를 소개하고 향후 추진계획을 설명했다.
금융감독원은 "AI가 금융혁신의 촉매가 될 수 있도록 학계, 업계, 글로벌 금융감독기구 등과 적극적으로 소통하고 협력할 예정이다"며 "안전성과 신뢰성을 기반으로 금융권의 AI 활용이 활성화될 수 있도록 합리적 규율방안을 마련해 나갈 계획이다"고 밝혔다.
정선은 한국금융신문 기자 bravebambi@fntimes.com