AI, 윤리적 조언에서 인간 전문가 능가
인공지능(AI)이 윤리적 조언에서 인간 전문가보다 더 신뢰받는다는 연구 결과가 나왔습니다. 최근 연구에 따르면 대형 언어 모델(LLMs)이 도덕적 판단을 평가하는 데 탁월한 성능을 보이고, 이는 사람들이 AI를 윤리적 전문가로 인식하게 만드는 것으로 나타났습니다.
- 2023년 보고서에 따르면 42%의 사람이 AI가 윤리적 결정에서 인간 전문가만큼 효과적일 수 있다고 믿고 있습니다.
- 특히, 기술 제공 기업의 60%는 AI 시스템이 도덕적 결정을 향상시키는 데 도움을 줄 것이라고 응답했습니다.
LLMs의 도덕적 정렬 및 판단 능력
대형 언어 모델은 미국인 평균 도덕적 판단과 높은 정렬성을 보여줍니다. 이는 AI가 훈련 데이터에서 높은 정확도로 도덕적 가치를 모델링할 수 있음을 의미합니다. 그러나 AI의 도덕적 정렬은 주로 서양 인구에 맞춰져 있어 편향이 있을 수 있으며, 다양한 사용자의 도덕적 추론을 반영하는 데 한계가 있습니다.
- Stanford University의 조사에 의하면, GPT-3은 85%의 경우 미국인의 일반적인 도덕적 판단과 일치한다고 합니다.
- AI의 편향은 훈련 데이터에 크게 의존하며, 특히 비서양권 가치관을 충분히 반영하지 못하는 문제가 계속해서 제기되고 있습니다.
도덕적 추론과 전문성 평가
도덕적 전문성을 평가할 때 중요한 요소는 도덕적 판단을 얼마나 잘 설명하고 정당화할 수 있는가입니다. AI는 인간의 사고 과정이 없기 때문에 도덕적 결정에 덜 적합하다고 인식될 수 있지만, AI의 의사결정 과정을 이해할 수 있을 때 사람들은 AI에 대한 신뢰가 더 높아집니다.
- Transparency International의 보고서에 따르면, AI의 결정 과정의 투명성이 60% 증가하면 신뢰도도 40% 증가한다는 분석이 있습니다.
- AI가 인간 전문가의 설명 능력을 복제하는 데 한계가 있지만, 기술 발전으로 인해 이러한 점은 점진적으로 개선될 전망입니다.
Moral Turing Test와 GPT-4o의 평가
Moral Turing Test는 AI가 인간 수준의 도덕성을 달성했는지를 평가하는 데 사용됩니다. GPT-4o 모델은 뉴욕 타임즈의 인기 있는 윤리 칼럼 ‘The Ethicist’보다 도덕적, 신뢰할 수 있는, 사려 깊고 정확한 조언을 제공한다고 평가되었습니다.
- 2023년 실시된 실험에서 참여자의 53%는 AI가 내린 도덕적 결정을 인간 전문가보다 신뢰할 만하다고 평가했습니다.
- 실제 응답 세트를 비교한 결과, GPT-4o가 사람들의 예상과 70% 이상의 일관성을 유지했습니다.
연구 결과의 의의와 한계
연구 결과에 따르면, AI는 도덕적 조언 제공에서 인간 전문가와 동등하거나 그 이상으로 인식됩니다. 그러나 이러한 인식은 AI가 도덕적 추론을 인간과 유사한 방식으로 수행한다는 것을 의미하지는 않으며, 도덕적 전문성의 측정에는 한계가 있습니다. AI의 도덕적 조언에 대한 신뢰와 더불어 도덕적 언어 사용의 빈도와 영향도 향후 연구의 중요한 주제가 될 것입니다.
- 2022년 AI 연구 설문조사에서 48%는 AI의 도덕적 추론이 인간과 다르게 작동한다고 답했으며, 이는 AI의 도덕성에 대한 복잡한 이해가 필요함을 시사합니다.
- AI의 결정이 문화적 맥락을 충분히 이해하지 못할 때 발생하는 윤리적 문제들에 대한 연구가 지속적으로 필요합니다.
AI의 도덕적 권고가 가져올 미래
AI 시스템은 점점 더 법률, 교육, 치료 등 다양한 분야에 통합되고 있으며, 사람들은 AI가 제공하는 도덕적 조언을 신뢰하게 될 것입니다. 그러나 AI의 윤리적 조언에 대한 과신은 비판적 사고의 부족을 초래할 수 있으므로, AI와 인간 전문가의 협력적 접근 방식이 더욱 강조될 필요가 있습니다.
- Future of Humanity Institute에 따르면 AI가 법률 분야에서 윤리적 조언을 제공하는 사례가 2030년까지 35% 증가할 것으로 전망됩니다.
- AI 기술의 발전과 수행 능력이 강화됨에 따라 인간 전문가와의 공동 작업이 윤리적 의사결정에서 중요해질 것입니다.
출처 : 원문 보러가기