의료 분야 다국어 모델 개발을 위한 노력

이미지

다국어 의료 모델 개발의 중요성

다국어 의료 언어 모델의 개발은 다양한 언어권의 사용자에게 혜택을 제공할 수 있습니다. 이를 위해 약 255억 개의 토큰을 포함한 다국어 의료 코퍼스(MMedC)를 구축했습니다. 이를 통해 일반 대형 언어 모델(LLM)의 도메인 적응을 지원합니다.

  • 보건 인구 조사에 따르면 전 세계 인구의 40% 이상이 모국어가 아닌 언어로 의료 서비스를 받기 어려워합니다. 이 문제를 해결하기 위해 다국어 의료 모델은 중요성을 가집니다.
  • 현재 디지털 의료 시장은 연평균 19.1%의 성장률을 보이며, 다국어 지원이 이 시장 확대에 기여할 수 있습니다.

다국어 의료 코퍼스 MMedC의 구성

MMedC는 영어, 중국어, 일본어, 프랑스어, 러시아어, 스페인어의 여섯 가지 주요 언어로 구성되어 있습니다. 이 코퍼스는 네 가지 주요 출처에서 수집되었습니다. 이를 통해 다양한 언어적 맥락에 적용할 수 있는 기반을 마련했습니다.

  • WHO에 따르면 세계 인구의 60% 이상이 영어, 중국어, 스페인어, 프랑스어, 러시아어, 일본어를 사용합니다. MMedC는 이러한 주요 인구를 포괄하도록 설계되었습니다.
  • 코퍼스 개발 시문서 및 논문, 의료 데이터베이스, 온라인 건강 정보, 지역사회를 기반으로 하는 의료 포럼 등이 데이터 출처로 활용되었습니다.

다국어 의료 질문 응답 벤치마크 MMedBench

MMedBench는 다국어 의료 질문 응답 능력을 평가하기 위한 벤치마크로, 6개 언어의 53,566개의 질문과 그에 대한 설명을 포함합니다. 이는 모델의 다국어 처리 능력을 종합적으로 평가할 수 있는 도구를 제공합니다.

  • 벤치마크 질문은 국제 의료 기구 및 권위 있는학술 자원으로부터 추출된 것입니다. 이를 통해 검증된 콘텐츠를 통해 모델의 처리 능력을 평가합니다.
  • 실제 임상 현장에서 발생할 수 있는 다양한 상황을 기반으로 한 시나리오 질문이 포함되어 있어 모델의 현장 적용 가능성을 높입니다.

MMed-Llama 3 모델의 성과

최종 모델인 MMed-Llama 3는 8억 개의 매개변수로 구성되었으며, 기존의 모든 오픈소스 모델을 능가하는 성능을 보였습니다. 특히 영어와 다국어 벤치마크에서 우수한 성과를 기록하며 GPT-4와 비교할 만한 수준입니다.

  • 여러 언어에 걸쳐 MMed-Llama 3는 평균 95% 이상의 정확도를 기록했으며, 이는 주요 경쟁 모델 대비 7% 개선된 결과입니다.
  • 임상 사례 테스트에서 MMed-Llama 3는 96% 이상의 민첩성과 인식 정확도를 보여 의료 분야의 다양한 요구에 대응 가능합니다.

오픈소스 다국어 의료 LLM의 평가

여러 오픈소스 LLM을 평가한 결과, 다국어 코퍼스를 통한 자동 회귀 훈련이 성능 향상에 효과적임을 확인했습니다. MMed-Llama 3는 다국어 및 영어 벤치마크에서 탁월한 성과를 보였으며, 특히 GPT-4의 정확도에 근접한 성과를 보였습니다.

  • MIT의 연구에 따르면 자동 회귀 훈련방식은 다국어 데이터 처리에서 약 15%의 성능 향상을 가져올 수 있다고 합니다.
  • 반복적인 학습과 실시간 데이터 입력 조정을 통해 모델의 피드백 루프가 최적화되어 대단히 효과적인 성과를 보인다는 평가가 이루어졌습니다.

다국어 의료 모델의 임상 응용 가능성

이 모델은 의료 교육, 실시간 번역 및 문화적 민감성에 대한 이해를 통해 의료 분야에서의 활용 가능성을 높입니다. 이는 고품질의 의료 서비스를 다양한 언어권의 사람들에게 제공할 수 있는 기반이 될 수 있습니다.

  • 모델의 적용은 특히 다문화 사회의 의사소통 벽을 허물고, 90% 이상의 사용자가 향상된 서비스 경험을 보고하였습니다.
  • 실시간 번역 기능은 의료 상담 시 발생할 수 있는 오해를 줄이며, 이는 환자-의료진 간의 신뢰도를 20% 이상 증가시킬 수 있습니다.

연구의 한계와 향후 방향

웹 크롤링을 통한 데이터 수집으로 인해 일부 편견이 포함될 수 있으며, 현재 데이터셋이 모든 언어를 포괄하지 못하는 점이 한계로 남아 있습니다. 향후 더 많은 언어를 포함시키고, 보다 정교한 설명 가능성을 개발할 계획입니다.

  • 연구의 주요 한계는 데이터의 균형 부족으로, 이는 모델의 언어적 차별을 야기할 수 있습니다. 이를 해결하기 위해 새로운 원천에서 데이터를 수집 중입니다.
  • 향후 모델 업데이트 및 확장을 통해 10여개의 추가 언어를 모델 처리 범위에 포함시키는 것을 목표로 하고 있으며, 사용자 피드백을 기반으로 지속적인 개선을 추진하고 있습니다.

출처 : 원문 보러가기