내 pc속 의사, 로컬 의료 AI 모델 MedGemma
구글이 로컬로 돌릴 수 있는 의료용 인공지능인 medgemma 모델을 오픈 소스로 공개했다.
이 모델은 gemma-3 모델을 의료용에 맞게 파인튜닝한 것으로 의료 이미지 및 텍스트 분석에 특화되어있다
아래 사이트에 정식 모델 소개가 있다.
https://deepmind.google/models/gemma/medgemma/
MedGemma
MedGemma is a Gemma 3 variant optimized for medical text and image comprehension
deepmind.google
해당 모델에 좀 더 자세하게 설명하자면
1. 방사선학, 디지털 병리학, 안저 및 피부 이미지를 포함한 의료 이미지 분류
2. 의료 이미지 보고서 생성이나 의료 이미지에 대한 자연어 질문에 답변
3. 환자 임상 전 인터뷰, 분류, 임상적 의사 결정 지원 및 요약 등의 의학적 지식이 필요한 작업
을 할 수 있다.
4B와 27B, 총 두 가지의 버전이 있는데 아무래도 의료용이다 보니 27B 버전 위주로 활용해보는 게 좋을 것 같다. 파인튜닝을 아무리 잘했다 한들 4B 버전은 기본 모델 성능이 워낙 낮기에 한계가 명확하다는 게 내 생각이다.
MedGemma의 성능은 아래 사이트에서 확인할 수 있다
https://developers.google.com/health-ai-developer-foundations/medgemma/model-card
MedGemma model card | Health AI Developer Foundations | Google for Developers
MedGemma model card Stay organized with collections Save and categorize content based on your preferences. Model documentation: MedGemma Resources: Author: Google Model information This section describes the MedGemma model and how to use it. Description Me
developers.google.com
먼저 4B 모델을 보면 이미지 분류 정확도가 40~60퍼 대가 많아 상당히 불안정하다는 걸 볼 수 있다
27B 모델은 4B 모델보다 적으면 3퍼, 많으면 30퍼 이상 뛰어나다는 걸 볼 수 있다. 특히 AfriMed-QA에서 압도적이다.
하지만 MedExpertQA의 수치가 아직 현저히 낮은 걸 보면 아직 의료 현장에서 요구하는 심층 추론 능력은 상당히 부족한 것으로 보인다. 그래서 만약 본인 pc에 설치한다면 간단한 진료 목적 정도로 쓸 수 있을 것 같다(시간만 적당히 투자한다면 간편 무료 의료 진단 보조 시스템 정도는 만들 수 있을지도?).
클라우드를 통해 쓰거나 직접 설치해보고 싶은 사람은 아래 두 사이트를 참고하면 된다.
https://huggingface.co/collections/google/medgemma-release-680aade845f90bec6a3f60c4
MedGemma Release - a google Collection
Collection of Gemma 3 variants for performance on medical text and image comprehension to accelerate building healthcare-based AI applications.
huggingface.co