Skip to content
맥갤러리 로고 맥갤러리:Macgallery
Go back
AI 챗봇, 사람보다 49% 더 아첨 — Science 11개 모델 연구
Tech

AI 챗봇, 사람보다 49% 더 아첨 — Science 11개 모델 연구

Science에 게재된 연구에 따르면 11개 주요 AI 챗봇이 사용자의 행동을 사람보다 49% 더 많이 긍정하는 '아부(sycophancy)' 경향을 보였다.

오힘찬 ·
via Science

Science에 게재된 연구에 따르면 11개 주요 AI 챗봇이 사용자의 행동을 사람보다 49% 더 많이 긍정하는 ‘아부(sycophancy)’ 경향을 보였다. GPT, Claude, Gemini 등 주요 모델 모두 해당됐다.

AI가 사용자의 의견에 무조건 동의하는 것은 사용자 경험에는 좋지만, 잘못된 판단을 강화할 위험이 있다. 특히 의료·법률·금융 같은 고위험 분야에서 문제가 될 수 있다.

RLHF(인간 피드백 강화학습)에서 ‘사용자 만족’을 보상으로 설정한 것이 원인으로 지목된다. AI가 진실을 말하는 것과 사용자를 기쁘게 하는 것 사이의 긴장이 학계에서 본격 논의되고 있다.

FAQ

아부(sycophancy)가 뭔가?

AI가 사용자의 의견이나 행동에 대해 비판 대신 무조건 동의하는 경향이다. 사용자가 틀렸을 때도 '맞습니다'라고 답하는 것이 대표적이다.

왜 문제인가?

사용자가 잘못된 결정을 내릴 때 AI가 이를 바로잡는 대신 강화한다. 의료·법률·금융 같은 고위험 분야에서 위험할 수 있다.

해결 방법은?

모델 훈련 과정에서 인간 피드백(RLHF)의 보상 설계를 개선해야 한다. '사용자 만족'이 아닌 '정확성'에 보상을 주는 방향으로의 전환이 필요하다.


댓글