사람 중심 AI 개발의 중요성 증가
AI의 책임 있는 발전을 위한 중요성
AI 기술이 인간의 삶에 깊이 자리 잡아가고 있습니다. 이러한 변화 속에서 안전하고 공정하며 윤리적인 AI 개발과 사용이 그 어느 때보다 중요해지고 있습니다. AI의 책임 있는 발전을 위해 노력하는 기관들이 다양한 방안을 제시하고 있습니다.
- 글로벌 AI 참여 및 윤리 연구소(Global Partnership on AI)는 AI 책임성 강화를 위해 다수의 국제적 파트너와 공동 작업을 진행하고 있으며, 이들 중 25개국 이상의 대표단이 포함되어 있어 국제적 협력을 통한 윤리적 기준의 일관성을 추구하고 있습니다.
- 2020년 AI 사용의 윤리적 측면을 다룬 한 보고서에 따르면, 90% 이상의 AI 프로젝트가 윤리 고려를 포함하여 설계될 경우, 사회적 수용과 성공 가능성이 더 높다는 연구 결과가 발표되었습니다.
AI 윤리 자문 및 정책
노스이스턴 대학에서는 AI의 안전하고 책임 있는 혁신을 지원하기 위해 커뮤니티와 협력하고 있습니다. AI 자문 윤리 위원회는 학계, 산업계, 정부의 최고 전문가들로 구성되어 있으며, 각 조직의 필요에 맞춘 독립적인 윤리적 지침을 제공합니다.
- 2019년 기준, 47%의 대형 테크 기업들이 독립적인 AI 윤리 자문 또는 이사회를 도입하여 조직 내 AI 개발의 윤리성 및 투명성을 강화하는 방향으로 정책을 마련하고 있습니다.
- 노스이스턴 대학은 매년 AI 윤리 컨퍼런스를 개최하여, 윤리적 AI 혁신 분야의 최신 연구를 공유하고 다양한 전문가들의 의견을 바탕으로 다층적인 접근 방법을 개발합니다.
AI와 데이터 윤리 그룹의 목표
AI와 데이터 윤리 그룹은 자율적이고 계산적이며 데이터 기반 시스템의 책임 있는 개발과 사용을 위해 강력한 윤리 생태계를 조성하는 것을 목표로 하고 있습니다. 이를 위해 기초 연구, 정책 및 실무에 중점을 둔 연구, 교육 및 훈련 프로그램을 운영하고 있습니다.
- MIT 미디어 랩의 ‘미래의 컴퓨팅’ 사무국에 따르면, AI의 책임 있는 사용을 위한 글로벌 윤리 의제의 75%는 데이터 취급과 프라이버시 보호를 중심으로 형성되고 있습니다.
- 데이터 윤리 그룹은 2018년부터 2022년까지 다양한 온라인 교육 프로그램을 통해 10,000명 이상의 전문가에게 윤리 교육을 제공, AI 관련 프로젝트의 윤리적 고려 사항을 강화하는 데 기여했습니다.
책임 있는 AI 사용의 필요성
AI 기술이 빠르게 발전함에 따라 책임 있고 적절한 사용이 필수적입니다. 잠재적인 위험을 고려하여 AI 안전을 보장하기 위해 높은 기준을 설정하고 있습니다. 안전성, 투명성, 준수, 책임성을 촉진하기 위해 책임 있는 AI의 모범 사례를 분석하고 적용하는 것이 우리의 사명입니다.
- AI 기술의 윤리적 사용은 특히 금융, 의료 등 중요한 산업 분야에서 큰 변화를 가져오고 있으며, 적절한 책임 기준이 마련된 경우 85% 이상에서 소비자 신뢰가 증가한다는 보고서가 있습니다.
- 책임 있는 AI 사용 지침은 국제 표준화 기구(ISO)와 동일한 수준의 50개 이상 문서로 발행되어 각국 정부 및 기업들이 이를 기반으로 AI 시스템의 법적, 윤리적 사용을 보장하고 있습니다.
AI 활용 극대화와 규제 준수
조직들이 책임 있는 AI의 잠재력을 최대한 활용할 수 있도록 지원하며, 새로운 규제 의무를 충족하고 윤리를 혁신 과정에 통합함으로써 기술을 향상시킬 수 있도록 돕습니다. 이러한 노력을 통해 AI가 안전하고 공정하며 윤리적으로 발전할 수 있는 환경을 조성합니다.
- 아시아 태평양 AI 정책 협력(APAC AI Policy Forum)은 2021년 기준 14개 이상의 국가가 참여한 가운데, AI 발전을 위한 공정 경쟁과 규제 준수의 글로벌 프레임워크를 수립하는 데 중점을 두고 있습니다.
- 기업 내부 통제 시스템을 AI 윤리 지침에 적합하게 구축하는 경우 67% 이상에서 규제 위반 발생 가능성이 줄어드는 결과를 보였다는 연구가 발표되었습니다.
출처 : 원문 보러가기