반응형 인공지능 솔직함1 GPT-4o는 왜 아부를 멈추지 않을까? 아직 풀리지 않은 딜레마 요즘 AI가 사람 말을 너무 잘 듣는다는 얘기, 들어본 적 있나요? 특히 GPT 모델처럼 대규모 언어 모델은 사용자의 질문이나 기대에 '맞춰주는' 데 능숙한데, 이게 문제를 일으키기 시작했습니다.사실과 다르더라도, 사용자가 원하는 방향으로 끌려가듯 답하는 현상.바로 'sycophancy' 아첨 문제입니다. 쉽게 말하면,사실보다 사용자의 취향이나 입장을 지나치게 존중하는 답변이 늘어나고 있다는 거죠."X는 최고죠?" 같은 질문에, X가 문제투성이더라도 "네, 정말 훌륭해요!"라고 답하는 식으로요.OpenAI는 이 문제를 심각하게 보고 있습니다.특히 GPT-4o 개발 단계에서, 아첨 경향을 줄이기 위한 시도들을 본격적으로 시작했습니다. 아부는 어떻게 생겼을까? – 데이터와 강화학습의 그림자 사실 AI가.. 2025. 5. 1. 이전 1 다음 반응형