W świecie radiologii, gdzie każda minuta i każdy opis ma znaczenie, zespół naukowców z Northwestern University postanowił odpowiedzieć na jedno z najważniejszych pytań współczesnej medycyny:
czy generatywna sztuczna inteligencja może realnie pomóc lekarzom w pracy – nie tylko na papierze, ale w codziennej praktyce klinicznej?
I zrobili to nie w laboratorium, nie na symulacjach, ale w żywym, szpitalnym organizmie.
🩻 Co zbadano?
W badaniu opublikowanym w JAMA Network Open (czerwiec 2025), oceniono wpływ AI, która tworzy wstępne szkice opisów do badań RTG (czyli tzw. drafty), na:
- ⏱️ Szybkość pracy radiologów,
- 🧠 Dokładność kliniczną opisów,
- 📝 Jakość językową dokumentacji,
- 🚨 Zdolność do wykrywania nagłych, nieoczekiwanych patologii (jak odma opłucnowa).
📈 Jak to działało?
Model AI generował szkic opisu tuż po wykonaniu badania (średnio w 3 sekundy). Radiolog mógł z tego szkicu skorzystać – poprawić, rozbudować, albo… zignorować. Brzmi jak współpraca z rezydentem, tylko że tym razem cyfrowym.
🧪 Wyniki? Solidne jak kość udowa na RTG.
1. 15,5% szybsza dokumentacja
Radiolodzy potrzebowali średnio o 29 sekund mniej na każdy opis. W przeliczeniu na dyżury:
➡️ to prawie 63 godziny czasu radiologa zaoszczędzone w ciągu badania.
Mniej stresu, więcej badań, mniej wypalenia.
2. Zero spadku jakości
Peer-review (ocena innych lekarzy) nie wykazała różnicy w:
- trafności klinicznej opisów,
- ani ich jakości językowej.
3. AI jako strażnik odmy
Model wykrywał 72,7% przypadków istotnej odmy opłucnowej, zanim zrobił to lekarz.
Średni czas wykrycia przez AI: 24 sekundy.
Średni czas do oceny przez radiologa: 24,5 minuty. (po prostu są przeładowani pracą)
Nie trzeba tłumaczyć, jakie to może mieć znaczenie na SORze.
🧠 Co z tego dla Ciebie?
Jeśli jesteś:
- 🩺 radiologiem – AI może być Twoim cyfrowym rezydentem, który nie je, nie śpi i nie narzeka na grafik.
- 🧑⚕️ lekarzem ogólnym – raporty mogą być gotowe szybciej, co oznacza szybsze decyzje terapeutyczne.
- 🧠 medykiem zainteresowanym AI – to kolejny dowód, że generatywna AI to nie tylko ChatGPT do opisywania historii Egiptu, ale narzędzie wspierające realną praktykę.
⚠️ Ale… z umiarem!
Badanie miało też ograniczenia:
- było prowadzone w jednej placówce,
- nie obejmowało rezydentów,
- i nie było randomizowane.
Czyli: to obiecujący początek, ale jeszcze nie powód, by rzucać system PACS i zatrudniać AI na pełen etat.
🧭 Co dalej?
Ten projekt pokazuje, że AI może wspierać – a nie zastępować – lekarza.
Możemy ją traktować jak narzędzie, które:
- przyspiesza workflow,
- podpowiada w trudnych przypadkach,
- i działa jako cyfrowy strażnik bezpieczeństwa pacjenta.
A może to także początek nowego rozdziału w pracy lekarza?
Nie jako solista, ale jako duet: człowiek + maszyna.
Masz pytania? Wątpliwości? Albo chcesz przetestować podobne narzędzie u siebie?
Źródło:
Huang J, Wittbrodt MT, Teague CN, et al.
Efficiency and Quality of Generative AI–Assisted Radiograph Reporting
. JAMA Network Open. 2025;8(6):e2513921. doi:
10.1001/jamanetworkopen.2025.13921



