OpenAI의 비영리 조직인 OpenAI Inc.는 미국 국세청에 제출한 서류에서 “AI 도덕성 연구” 프로젝트를 위해 듀크 대학교 연구진에게 보조금을 지급했다고 밝혔습니다. 이에 대해 OpenAI 대변인은 보도자료를 통해, 이번 보조금이 듀크대 교수들이 수행하는 “도덕적 AI 개발” 연구를 지원하기 위해 제공된 총 100만 달러 규모의 3년 장기 지원금의 일부라고 설명했습니다.
OpenAI가 이 “도덕성” 연구에 자금을 지원하고 있다는 사실은 2025년에 지원이 종료된다는 점 외에는 거의 공개되지 않았습니다. 연구 책임자인 듀크대학교(Duke) 실용윤리학 교수 월터 시노트-암스트롱(Walter Sinnott-Armstrong)은 미국의 IT 언론사인 테크크런치(TechCrunch)와의 이메일 인터뷰에서 “이 연구에 대해 자세히 말할 수 없다”고 전했다고 합니다.
시노트-암스트롱 교수와 프로젝트의 공동 연구자인 자나 보그(Jana Borg)는 AI가 인간의 더 나은 판단을 돕는 ‘도덕적 GPS’ 역할을 할 수 있는 가능성에 대해 여러 연구 논문과 저서를 발표한 바 있습니다. 이들은 대규모 연구팀의 일원으로서 신장 기증 수혜자를 결정하는 데 활용할 수 있는 ‘도덕적으로 정렬된’ 알고리즘을 개발했으며, 사람들이 어떤 상황에서 AI가 도덕적 결정을 내리는 것을 선호하는지에 대해 연구를 진행하고 있습니다.
보도 자료에 따르면 OpenAI가 자금을 지원하는 이 연구의 목표는 “의학, 법률 및 비즈니스에서 도덕적으로 관련된 갈등이 포함된 시나리오에서 인간의 도덕적 판단을 예측”하도록 알고리즘을 훈련하는 것입니다.
하지만 도덕성만큼 미묘한 개념이 오늘날의 기술로 구현될 수 있는지는 아직 명확하지 않습니다.
2021년, 비영리 단체 Allen Institute for AI(Ai2)는 윤리적으로 건전한 조언을 제공하기 위해 Ask Delphi라는 도구를 개발했습니다. 이 AI는 기본적인 도덕적 딜레마를 비교적 잘 판단했습니다. 예를 들어, 시험에서 부정행위를 하는 것이 잘못되었다는 점은 “알고” 있었습니다. 하지만 질문이나 문구를 약간 변경하면, Delphi는 유아를 질식시키는 것과 같은 심각한 행위조차 승인할 수 있는 답변을 내놓았습니다.
이러한 문제는 최신 AI 시스템의 작동 방식에서 비롯됩니다.
AI는 머신러닝 모델, 즉 통계적 기계입니다. 웹에서 수집된 수많은 데이터를 학습하면서 패턴을 인식합니다. 예컨대, "누구에게"라는 표현이 "관련될 수 있다"라는 문구 앞에 자주 나온다는 식의 통계적 관계를 학습합니다.
하지만 AI는 윤리적 개념이나 도덕적 의사 결정의 근거가 되는 추론이나 감정을 이해하지 못합니다. 결과적으로, AI는 주로 서구의 교육받은 선진국에서 형성된 가치관을 그대로 모방하는 경향이 있습니다. 이는 AI의 학습 데이터가 이러한 관점을 지지하는 콘텐츠로 주로 구성되어 있기 때문입니다.
따라서 많은 사람들의 가치관이 AI가 제공하는 답변에 반영되지 않습니다. 특히, AI 학습 데이터에 기여하지 않는 문화권이나 집단의 경우 이러한 경향이 더욱 두드러집니다. 뿐만 아니라 AI는 서구 중심의 편향을 넘어 다른 다양한 편견들도 내재화합니다. 예를 들어, Delphi는 “이성애가 동성애보다 더 도덕적으로 받아들여질 수 있다”는 식의 답변을 제공한 바 있습니다.
OpenAI와 이를 뒷받침하는 연구자들이 직면한 가장 큰 도전은 도덕이 본질적으로 주관적이라는 점입니다. 철학자들은 수천 년간 다양한 윤리 이론의 장단점을 두고 논쟁해왔지만, 보편적으로 적용할 수 있는 윤리적 프레임워크는 존재하지 않습니다.
예를 들어, Anthropic의 AI 모델인 클로드는 칸트주의(절대적 도덕 규칙에 중점을 둠)를 더 선호하는 반면, ChatGPT는 공리주의(최대 다수의 최대 이익을 우선시함)에 더 가까운 경향을 보입니다. 어느 접근 방식이 더 우월한지는 누구에게 묻느냐에 따라 다릅니다.
인간의 도덕적 판단을 예측하는 알고리즘을 만드는 일은 이 모든 복잡성을 고려해야 하며, 이러한 알고리즘이 가능하다고 가정하더라도 극복해야 할 높은 장벽이 존재합니다.
※ 기사 내용 참조
[TechCrunch] OpenAI is funding research into ‘AI morality’ | By Kyle Wiggers | 2:25 PM PST · November 22, 2024 | https://techcrunch.com/2024/11/22/openai-is-funding-research-into-ai-morality/
엔비디아의 푸가토 AI 모델, 세상에 없는 소리도 생성 (3) | 2024.11.26 |
---|---|
큐리오시티, 화성 탐사 중에 깨뜨린 바위에서 유황을 발견 (0) | 2024.11.25 |
생명의 기원에 대한 연구에서 RNA는 좌우 단백질을 모두 선호 (0) | 2024.11.22 |
스냅드래곤 8 엘리트, 갤럭시S25 등 안드로이드 스마트폰 배터리 수명을 크게 향상 (2) | 2024.11.21 |
인스타그램, 곧 추천 알고리즘 재설정 가능 (2) | 2024.11.20 |
댓글 영역