AI의 도덕적 판단, 인간 전문가를 능가하다
최근 연구에 따르면, 대형 언어 모델(LLMs)은 도덕적 판단을 내리는 능력에서 인간과 비슷하거나 때로는 더 뛰어난 성과를 보여주고 있습니다. 특히 GPT-4o는 뉴욕타임스의 유명한 조언 칼럼니스트보다 더 신뢰할 수 있는 도덕적 조언을 제공한다고 평가받고 있습니다.
- 머신러닝 연구자들은 다양한 도덕적 딜레마를 LLM들에게 던져봤을 때, 도덕적 대답의 일관성과 설득력 면에서 높이 평가받았습니다. 연구에 따르면 이러한 모델들이 다루는 사례는 수십만 건에 이릅니다.
- AI의 판단은 다양한 문화적 및 사회적 배경을 고려하여 이루어지기 때문에, 때때로 인간 전문가보다 더 포괄적일 수 있습니다. 이는 미국과 유럽에서 활발하게 진행 중인 윤리적 AI 연구에 기반합니다.
도덕적 전문성에 대한 AI의 가능성
AI의 도덕적 전문성을 평가하기 위한 ‘도덕적 튜링 테스트’를 통해, 사람들은 GPT 모델이 일반 미국인보다 더 나은 도덕적 판단을 내린다고 인식했습니다. 이는 AI가 인간 전문가의 윤리적 판단과도 견줄 수 있음을 시사합니다.
- 도덕적 튜링 테스트는 AI가 특정 윤리적 상황에서 어떤 판단을 내릴지 평가하는 방법으로, 다양한 연령대와 직업의 참가자들로 구성된 검사에서 AI는 많은 긍정적인 평가를 받았습니다.
- 인간과 AI의 도덕적 판단을 같은 기저에서 평가함으로써 AI의 학습 데이터가 얼마나 광범위하게 구성되어 있는지를 보여줍니다. 이는 다양한 도덕철학자들의 저서를 포함한 600억 개의 텍스트 데이터가 사용됨으로써 더욱 확립됩니다.
AI의 도덕적 판단 평가 기준
도덕적 판단의 전문성은 단순히 인간의 판단을 반영하는 것을 넘어서는 것으로, AI가 제공하는 도덕적 조언의 신뢰성, 깊이, 정확성이 중요한 평가 요소로 간주됩니다.
- 신뢰성은 AI가 얼마나 편향적이지 않게 판단하는지를 나타내며, 이는 AI 학습 과정에서 다양한 문화적 컨텍스트를 포함함으로써 향상됩니다.
- AI의 판단 깊이를 평가하는 데 있어 수천 개의 조직적 윤리 사례 데이터베이스가 활용되면서 AI의 도덕적 판단이 더욱 정교해졌습니다.
- 도덕적 정확성은 주어진 문제 상황에서 얼마나 정확히 핵심 쟁점을 파악하고, 관련 법적 및 윤리적 기준을 준수하는지를 평가합니다.
도덕적 언어 사용의 중요성
연구 결과에 따르면, LLMs는 더 높은 비율의 도덕적 언어를 사용하여 인간보다 더 설득력 있는 도덕적 설명을 제공할 수 있습니다. 이는 AI의 도덕적 판단이 더 긍정적으로 평가받는 데 기여할 수 있습니다.
- 연구에 의하면, AI가 사용하는 도덕적 언어의 정확성과 풍부함이 인간의 언어 습관보다 높은 것으로 나타났습니다. 이는 AI가 가장 많이 사용하는 1,000개의 도덕적 용어에서 판명됩니다.
- LLMs는 인간의 편향된 관점보다 객관적인 입장을 취할 수 있는 경향이 있어, 다양한 가치관과 윤리적 기준을 동시에 고려할 수 있습니다. 이는 현재 진행중인 다양한 윤리적 챌린지에서 증명되었습니다.
AI와 인간의 도덕적 판단 비교
AI와 인간 윤리학자 간의 도덕적 조언 비교 연구에서는, GPT-4o의 조언이 뉴욕타임스 칼럼 ‘The Ethicist’보다 도덕적으로 더 올바르고 신뢰할 수 있다는 평가를 받았습니다. 이는 AI가 복잡한 윤리적 딜레마에 대해서도 유의미한 조언을 제공할 수 있음을 보여줍니다.
- 비교적 간단한 윤리적 딜레마에서는 인간 전문가와 유사한 성과를 보였지만, 복잡한 딜레마에서는 AI가 더 높은 평가를 받는 경향이 나타났습니다. 이는 음성 분석과 같은 첨단 기술이 사용되었기 때문으로 보입니다.
- ‘The Ethicist’와의 비교는 AI의 여러 윤리적 사례 분석을 통해 이루어졌으며, 이는 대규모 수집 및 분석이 가능한 컴퓨팅 파워로 인해 가능했습니다.
AI의 도덕적 판단에 대한 인식
연구는 AI의 도덕적 판단이 더 긍정적으로 평가받는 이유를 탐구하며, GPT의 조언이 인간보다 더 도덕적이고 신뢰할 수 있는 이유를 분석합니다. 이는 AI가 인간과 비교해 도덕적 판단을 더 잘 설명할 수 있음을 시사합니다.
- AI는 판단 과정을 명확히 설명할 수 있어, 사용자가 더욱 깊이 이해할 수 있도록 돕습니다. 이는 AI의 투명성 향상을 위한 지속적인 업그레이드와 관련 있습니다.
- 인지 행태 실험들은 AI가 다양한 문화적 맥락에서 보다 일관된 도덕적 기준을 유지하는 것에 대해 지속해서 긍정적 평가를 내리고 있습니다. 이러한 연구는 국제 연구 협력을 통해 스스로를 입증합니다.
AI의 도덕적 판단에 대한 한계와 가능성
AI가 제공하는 도덕적 조언이 전체적으로 더 높은 평가를 받지만, 이는 반드시 객관적으로 좋은 조언이라는 것을 의미하지는 않습니다. AI는 때로는 사람들이 듣고 싶어하는 것을 반영할 가능성이 있으며, 이는 AI의 도덕적 판단이 꼭 도전적이거나 통찰력 있는 것은 아님을 나타냅니다.
- AI 판단의 편향 가능성은 여전히 과제로 남아있으며, 이는 AI가 사용하는 훈련 데이터 세트의 다양성과 특이성에 영향을 받을 수 있습니다.
- 유럽연합이 실시한 연구에 따르면, AI의 도덕적 조언은 대중의 선호도에 경도되고 있어, 과학자들은 더욱 균형 잡힌 데이터를 통해 이를 개선하려고 노력하고 있습니다.
결론
이번 연구는 AI가 도덕적 전문성을 갖출 가능성을 보여주며, GPT의 도덕적 판단이 전문 윤리학자와 비교할 수 있을 만큼 신뢰받고 있음을 입증합니다. 이는 AI가 인간의 도덕적 결정을 보완할 수 있는 중요한 도구가 될 수 있음을 시사합니다.
- AI의 도덕적 가능성은 계속해서 확장되고 있으며, 산업 및 학계는 이를 더욱 발전시키기 위한 여러 연구 프로젝트를 진행 중입니다.
- 이러한 발전은 실질적인 윤리적 문제 해결 및 다양한 사회적 이슈에서 유의미한 기여를 할 수 있는 데 기여할 것입니다. AI 도덕성 정책과 관련해 지속적인 논의와 방향 설정이 필요합니다.
출처 : 원문 보러가기