x

이메일로 만나보는 스타트업 가이드

투자, 행사, 정부사업 등 스타트업 생태계 소식을 이메일로 편하게 받아보세요.

독일과 미국 국제 연구팀이 임의의 실험에서 인간 행동을 예측·시뮬레이션하는 기반 모델인 센토르(Centaur)를 발표했다. 메타 오픈소스 대규모 언어모델인 Llama 3.1 70B를 기반으로 개발된 센토르는 160개 심리학 실험에서 얻은 1,000만 건에 이르는 인간 선택을 포함하는 데이터세트로 훈련됐으며 실험 스토리나 구조가 변경된 경우나 완전히 새로운 영역 실험에도 일반화할 수 있다고 한다.

이미 현대 AI는 과거에 인간만이 가능했던 다양한 일을 실현하고 있다. 예를 들어 체스나 바둑 챔피언에게 승리하거나 자동차를 운전하거나 단백질 입체구조를 예측하거나 마치 인간처럼 자연스러운 대화나 문장을 생성하는 것이 AI에게는 가능하다.

하지만 현행 AI 대부분은 특정 영역에만 특화되어 있어 인간과는 크게 다른 존재다. 체스 챔피언은 직접 차를 운전해서 회장까지 갈 수 있지만 체스를 잘하는 AI는 차를 운전할 수 없다. 또 AI 챗봇은 인간과 부드러운 대화를 할 수 있지만 체스를 시키면 말의 움직임을 틀리는 등 초보적이고 이상한 실수를 범하는 경우가 있다고 한다.

이런 단점은 있지만 일부 과학자는 AI가 인간 마음을 이해하는 데 도움이 될 것으로 기대하고 있다. 독일 의학계 연구센터인 헬름홀츠 뮌헨(Helmholtz Munich) 인지신경과학자인 마르셀 빈츠(Marcel Binz) 박사 연구팀은 새로 학술지 네이처에 게재된 논문에서 자연어로 표현 가능한 모든 실험에서 인간 행동을 예측·시뮬레이션하는 기반 모델인 센토르를 발표했다.

센토르는 메타 Llama 3.1 70B를 기반으로 하며 6만 명 이상 피험자가 참여한 160건에 이르는 심리학 실험 결과로 구성된 데이터세트 Psych-101을 사용해 훈련됐다. Psych-101에 포함된 실험은 우주선을 조종해서 보물을 찾는 게임을 하는 실험, 단어 목록을 암기하는 실험, 배당이 다른 슬롯머신 2대를 플레이해서 가능한 한 많은 보상을 얻는 실험 등 다양하며 인간 피험자가 선택한 1,000만 건 이상 선택이 포함되어 있다.

연구팀은 Llama 3.1 70B에 실험별 피험자를 연기하도록 지시하고 AI가 인간과 같은 반응을 보인 경우 보상을 주어 훈련을 진행했다. 빈츠 박사는 기본적으로 인간 피험자가 한 선택을 모방하도록 로봇에게 가르쳤다고 말했다.

훈련 후 센토르가 얼마나 잘 작동하는지 테스트한 결과 센토르는 데이터세트에 포함되지 않은 실험에서도 피험자가 어떻게 반응했는지를 정확히 예측했다. 또 우주선을 조종해서 보물을 찾는 게임을 변형해서 날아가는 양탄자를 조종해서 보물을 찾는 내용으로 바꿔서 플레이시킨 결과 인간 피험자와 마찬가지로 센토르도 우주선에서 고안한 전략을 날으는 양탄자에도 적용했다고 한다.

센토르는 데이터세트에 포함되지 않았던 논리적 추론에 관한 질문에 대해서도 인간이 정답을 맞힌 질문에는 올바르게 답하고 인간이 어렵다고 느낀 질문에는 잘 답하지 못하는 경향을 보였다. 빈츠 박사는 여기서 센토르 반응에 상당한 일반화가 일어나고 있다고 말했다.

센토르 개발에 관여하지 않은 스탠포드 대학 인지과학자인 러스 폴드랙(Russ Poldrack) 박사는 센토르는 정말 놀라운 것이라며 이는 인간과 완전히 같은 방식으로 모든 종류 과제를 수행할 수 있는 첫 모델이라고 높이 평가했다.

빈츠 박사는 최종적으로는 인간의 마음을 전체적으로 이해하고 이 모든 게 어떻게 연결되어 있는지를 해명하고 싶다고 말했다. 연구팀은 심리학 실험 데이터베이스를 5배로 늘리는 작업을 진행하고 있으며 센토르 추가 훈련을 계획하고 있다고 한다. 관련 내용은 이곳에서 확인할 수 있다.

뉴스 레터 구독하기

Related Posts

No Content Available
Next Post