인기#AI의료#정밀의료#면역관문억제제#딥러닝진단#LLM#AlphaFold#세특탐구#2027수시
AI 의료기술, 의대 입시 탐구주제의 새로운 기준이 되다
3692분 읽기27
AI × Medicine
AI 영상 진단, 정밀의료, LLM 임상 의사결정 — 최신 연구 기반으로 의대 입시 탐구주제를 설계하는 법.
1 AI 영상 진단
2 정밀의료·ICI
3 LLM·AlphaFold
"AI가 의사를 대체한다"는 기사를 읽고 세특에 옮기면 합격할까요? 아닙니다. 입학사정관이 보는 건 키워드가 아니라 사고의 깊이입니다.
AI 의료기술을 탐구주제로 활용하려면, 기술의 원리와 임상적 한계를 동시에 이해해야 합니다. 최신 연구를 근거로 3가지 핵심 영역을 뜯어보겠습니다.
AI 병리 진단 메타 분석 — McGenity et al., 2023, NPJ Digital Medicine
96.3%
평균 민감도
(CI 94.1–97.7)
(CI 94.1–97.7)
93.3%
평균 특이도
(CI 90.5–95.4)
(CI 90.5–95.4)
99%
비뚤림 위험
또는 적용성 우려
또는 적용성 우려
152K+
분석 대상
WSI 수
WSI 수
AI의 "높은 정확도"와 "검증의 부재" 사이의 간극 — 이것이 바로 세특에서 다룰 수 있는 탐구의 출발점입니다.
1
AI 영상 진단 — 딥러닝은 어디까지 왔는가
저선량 CT × 딥러닝 디노이징
핵심 연구
Chen et al. (2026), Journal of Applied Clinical Medical Physics — 저선량 CT 폐암 검진에서 딥러닝 디노이징이 고형 결절의 SSIM을 51%에서 60–64%로 개선, 결절 직경 오차를 2.05%에서 1.44–1.52%로 감소. 방사선 피폭 증가 없이 조기 발견 정확도 향상.
약한 예시
"AI 폐암 진단에 대해 조사하고 발표함"
합격 수준
"물리Ⅱ에서 X선의 감쇠 계수(μ)를 학습하며 'CT 영상에서 노이즈가 많아지면 결절 검출에 어떤 영향이 생길까?'라는 의문을 가짐. 엑셀로 노이즈 수준별 SNR을 시뮬레이션한 뒤, 딥러닝 디노이징이 SSIM을 51%→64%로 개선한다는 연구와 비교. 그러나 고형 결절과 아고형 결절의 밀도 차이가 디노이징 효과에 다르게 작용한다는 점을 발견하고, '기술적 정확도 향상이 모든 병변에 동일하게 적용되는가?'라는 반증 질문으로 확장함"
'조사'는 결과를 가져오는 것이고, '탐구'는 직접 시뮬레이션하거나 실험해서 그 결과에 의문을 던지는 것입니다.
2
정밀의료와 면역관문억제제 — AI가 바꾸는 치료 패러다임
바이오마커 예측 × 전사체 AI
핵심 연구 1
Mariam et al. (2023), Oncology [Williston Park] — 18,792명 환자, 100개 연구 메타 분석. PD-L1 발현, TMB, 다중모달 바이오마커가 무작위 배정(AUC 0.50)보다 유의미하게 ICI 반응을 구별. 다만 임상적 유용성 기준(AUC 0.7~0.8)에 미달하는 경우가 많았으며, 암종별 바이오마커 성능의 이질성이 핵심 한계.
핵심 연구 2
Keyl et al. (2025), NAR Cancer — NeurixAI가 546,646건 약물 교란 실험 데이터로 학습, 272개 표적 치료제 + 30개 화학요법 약물의 반응을 예측. 설명 가능한 AI(xAI)로 개별 종양 수준 약물 내성 기전 규명.
약한 예시
"면역항암제의 원리를 조사하고 정리함"
합격 수준
"생명과학Ⅱ에서 T세포의 면역관문(PD-1/PD-L1) 경로를 학습하던 중, '면역관문억제제가 모든 암환자에게 효과가 있을까?'라는 질문을 가짐. 동아리 시간에 항체-항원 결합 모형을 직접 제작하여 PD-1/PD-L1 차단의 원리를 시각화한 뒤, 18,792명 메타 분석에서 PD-L1 발현이 높아도 반응하지 않는 환자가 다수 존재한다는 데이터를 확인. '그렇다면 PD-L1 외에 어떤 변수가 치료 반응을 결정하는가?'라는 후속 질문으로 전사체 기반 AI 예측 모델(NeurixAI)을 분석하고, 단일 바이오마커의 한계를 다중모달 AI로 보완하는 방향을 탐구함"
수업에서 생긴 질문("모든 환자에게 효과가 있을까?") → 직접 모형 실험 → 데이터로 반증 → "그렇다면?" 후속 질문. 이 연쇄적 사고가 융합적 탐구입니다.
3
LLM과 AlphaFold — 의료 AI의 최전선
임상 의사결정 × 단백질 구조 예측
핵심 연구 1
Sandmann et al. (2025), Nature Medicine — 125개 환자 사례(빈발+희귀 질환)에서 DeepSeek-V3, GPT-4o, Gemini 2.0 벤치마크. 오픈소스 LLM이 상용 모델과 동등하거나 우월한 성능. 병원 내 로컬 배포 가능성이 핵심 임상 장점.
핵심 연구 2
Guo et al. (2024), Molecular Cancer — AlphaFold 연구 과학계량분석. 연간 성장률 180.13%, 국제 공동연구 33.33%. "구조 예측", "AI", "신약 개발", "분자 동역학"이 핵심 연구 프론티어.
약한 예시
"ChatGPT가 의료에 어떻게 사용되는지 조사함"
합격 수준
"확률과 통계에서 조건부확률과 베이즈 정리를 학습한 뒤, 'AI 진단 정확도가 높다고 해서 실제로 신뢰할 수 있는가?'라는 반증적 질문을 가짐. 유병률이 낮은 질환에서 위양성의 조건부확률을 직접 계산하여 양성 예측도가 급격히 떨어지는 현상(Base Rate Fallacy)을 확인. 이를 Nature Medicine(2025) 벤치마크 연구에서 오픈소스 LLM이 125개 임상 사례에서 보인 '통계적 동등성'에 적용하여, 높은 정확도가 임상적 신뢰성을 보장하지 않는 시나리오를 분석. LLM의 환각(hallucination) 사례를 수집하여 '의료 AI에 허용 가능한 오류의 범위는 어디까지인가'라는 윤리적 논의로 확장함"
수업에서 배운 수학 도구(조건부확률)로 직접 계산하여 "높은 정확도 = 높은 신뢰성"이라는 통념을 반증하는 것. 그것이 의학적 사고입니다.
AI 의료 탐구, 왜 실패하는가 — 흔한 3가지 함정
- 01기술 소개에 그치는 탐구 — "AI가 암을 진단한다"는 사실 전달은 탐구가 아닙니다. 민감도·특이도의 의미, 위양성의 임상적 결과까지 연결해야 합니다.
- 02출처 없는 수치 인용 — "AI 진단 정확도 97%"를 출처 없이 사용하면 신뢰도가 떨어집니다. 어떤 연구에서, 어떤 조건에서 나온 수치인지 맥락을 붙이세요.
- 03윤리적 논의 부재 — AI 의료기술은 필연적으로 개인정보, 알고리즘 편향, 의료 접근성 문제를 수반합니다. 기술만 다루고 윤리를 빠뜨리면 "깊이 없는 탐구"로 평가됩니다.
| 교과 | AI 의료 연결 주제 | 세특 적용 포인트 |
|---|---|---|
| 물리Ⅱ | X선 감쇠·CT 영상 재구성 | 딥러닝 디노이징의 물리적 원리 |
| 화학Ⅱ | 약물-수용체 결합·분자 구조 | AlphaFold 단백질 구조 예측과 신약 설계 |
| 생명과학Ⅱ | 면역관문(PD-1/PD-L1)·유전체 | ICI 반응 예측 바이오마커 |
| 확률과 통계 | 베이지안 추론·ROC 곡선 | AI 진단 모델의 민감도/특이도 해석 |
| 정보 | 딥러닝·자연어 처리 | LLM 임상 의사결정 지원 시스템 |
| 미적분 | 미분방정식·최적화 | 감염병 확산 모델(SIR)·약물 농도 변화 |
| 자율활동 | AI 의료 윤리·의료 접근성 | AI 진단 오류와 법적 책임 논의 |
| 국어(독서) | 의학 윤리·비판적 읽기 | AI 의사결정 편향 분석 |
| 통합사회 | 의료 불평등·디지털 격차 | AI 의료기술과 의료 형평성 |
| 영어 | 의료 AI 영어 원문 읽기 | 연구 논문 초록 분석·발표 |
MEDI-PILOT
AI 의료기술 탐구, 어떤 논문을 어떻게 연결해야 할지 막막하시죠?
서울대 출신들이 만든 메디컬 인공지능과
의대 출신 전문가가 함께 검토하여 합격을 설계합니다.