[프라임경제] 전 세계적으로 AI 딥페이크와 알고리즘 편향이 잇따르며 사회적 파장이 확산되고 있다. 이에 따라 주요 글로벌 기업과 국가들은 '책임 있는 AI' 개발과 윤리 기준 마련을 핵심 과제로 삼고 있다. AI 기술의 영향력이 커질수록 사회적 가치와 법적 기준에 부합하는 방식으로 기술을 정렬(Alignment)하는 '신뢰 가능한 AI' 생태계 조성이 필수 과제로 부상하고 있다.

와이즈넛이 'AI 윤리·위험관리' 기술개발 연구에 착수한다. ⓒ 와이즈넛
이러한 흐름에 발맞춰 와이즈넛(대표 강용성, 096250)은 최근 정보통신방송기술개발사업의 일환으로 추진되는 '공존 가능한 신뢰 AI를 위한 AI Safety 기술 개발' 과제에 공동참여기관으로 참여해 1차년도 개발을 본격화했다고 4일 밝혔다.
이번 과제는 과학기술정보통신부·정보통신기획평가원이 추진한다. 한국과학기술연구원(KIST)의 주관하는 국가 전략 연구로 2028년까지 총 4년에 걸쳐 약 99억원이 투입된다. 목표는 AI가 윤리적·법적·사회적 기준에 부합하도록 정렬시키고, 자율적으로 위험을 인지·조정할 수 있는 AI 위험관리 체계를 구축하는 것이다.
1차년도에는 AI 정렬 자동화를 위한 가이드라인 추천 기술, 정렬 기준 구분 기술 개발이 중점적으로 추진된다. 와이즈넛은 자체 개발한 대규모언어모델(LLM)과 검색증강생성(RAG) 기술을 활용해 핵심 개념 검증에 나서고 있다.
연구 컨소시엄은 와이즈넛을 비롯해 △세종대학교 산학협력단 △고려대학교 산학협력단 △디지탈쉽 △포스코 △경향신문 등으로 구성됐다.
이들은 △AI 윤리·법·사회 기준에 기반한 요소 추출 기술 △정렬 가이드라인 분류 및 추천 알고리즘 △AI Ops 플랫폼과 위험 가이드라인 관리 체계 △도메인별 실증 기반 확산 모델 등을 단계적으로 구현해 나갈 계획이다.
이번 과제는 기존 AI 모델이 직면한 윤리적 한계와 편향 문제 해결을 위한 '기술적 전환점'으로 평가된다. 특히 향후에는 AI가 스스로 위험을 감지하고 정책 변화에 능동적으로 대응할 수 있는 자동화 기반도 마련될 전망이다.
강용성 와이즈넛 대표는 "AI 기술 고도화가 가속화되는 지금 기술적 혁신과 더불어 사회적 신뢰 확보가 더욱 중요해졌다"며 "이번 연구를 통해 AI의 법·윤리·사회적 기준 정합성과 안전성을 강화하고 산업 및 공공 전반에서 신뢰 기반의 AI 생태계 구축에 기여할 것"이라고 밝혔다.