AI w Radiologii: Czy to już czas, by oddać klawiaturę maszynie?

W świecie radiologii, gdzie każda minuta i każdy opis ma znaczenie, zespół naukowców z Northwestern University postanowił odpowiedzieć na jedno z najważniejszych pytań współczesnej medycyny:

czy generatywna sztuczna inteligencja może realnie pomóc lekarzom w pracy – nie tylko na papierze, ale w codziennej praktyce klinicznej?

I zrobili to nie w laboratorium, nie na symulacjach, ale w żywym, szpitalnym organizmie.


🩻 Co zbadano?

W badaniu opublikowanym w JAMA Network Open (czerwiec 2025), oceniono wpływ AI, która tworzy wstępne szkice opisów do badań RTG (czyli tzw. drafty), na:

  1. ⏱️ Szybkość pracy radiologów,
  2. 🧠 Dokładność kliniczną opisów,
  3. 📝 Jakość językową dokumentacji,
  4. 🚨 Zdolność do wykrywania nagłych, nieoczekiwanych patologii (jak odma opłucnowa).

📈 Jak to działało?

Model AI generował szkic opisu tuż po wykonaniu badania (średnio w 3 sekundy). Radiolog mógł z tego szkicu skorzystać – poprawić, rozbudować, albo… zignorować. Brzmi jak współpraca z rezydentem, tylko że tym razem cyfrowym.


🧪 Wyniki? Solidne jak kość udowa na RTG.

1. 15,5% szybsza dokumentacja

Radiolodzy potrzebowali średnio o 29 sekund mniej na każdy opis. W przeliczeniu na dyżury:

➡️ to prawie 63 godziny czasu radiologa zaoszczędzone w ciągu badania.

Mniej stresu, więcej badań, mniej wypalenia.

2. Zero spadku jakości

Peer-review (ocena innych lekarzy) nie wykazała różnicy w:

  • trafności klinicznej opisów,
  • ani ich jakości językowej.

3. AI jako strażnik odmy

Model wykrywał 72,7% przypadków istotnej odmy opłucnowej, zanim zrobił to lekarz.

Średni czas wykrycia przez AI: 24 sekundy.

Średni czas do oceny przez radiologa: 24,5 minuty. (po prostu są przeładowani pracą)

Nie trzeba tłumaczyć, jakie to może mieć znaczenie na SORze.


🧠 Co z tego dla Ciebie?

Jeśli jesteś:

  • 🩺 radiologiem – AI może być Twoim cyfrowym rezydentem, który nie je, nie śpi i nie narzeka na grafik.
  • 🧑‍⚕️ lekarzem ogólnym – raporty mogą być gotowe szybciej, co oznacza szybsze decyzje terapeutyczne.
  • 🧠 medykiem zainteresowanym AI – to kolejny dowód, że generatywna AI to nie tylko ChatGPT do opisywania historii Egiptu, ale narzędzie wspierające realną praktykę.

⚠️ Ale… z umiarem!

Badanie miało też ograniczenia:

  • było prowadzone w jednej placówce,
  • nie obejmowało rezydentów,
  • i nie było randomizowane.

Czyli: to obiecujący początek, ale jeszcze nie powód, by rzucać system PACS i zatrudniać AI na pełen etat.


🧭 Co dalej?

Ten projekt pokazuje, że AI może wspierać – a nie zastępować – lekarza.

Możemy ją traktować jak narzędzie, które:

  • przyspiesza workflow,
  • podpowiada w trudnych przypadkach,
  • i działa jako cyfrowy strażnik bezpieczeństwa pacjenta.

A może to także początek nowego rozdziału w pracy lekarza?

Nie jako solista, ale jako duet: człowiek + maszyna.

 

Masz pytania? Wątpliwości? Albo chcesz przetestować podobne narzędzie u siebie?

Źródło:

Huang J, Wittbrodt MT, Teague CN, et al.

Efficiency and Quality of Generative AI–Assisted Radiograph Reporting

. JAMA Network Open. 2025;8(6):e2513921. doi:

10.1001/jamanetworkopen.2025.13921

Udostępnij:

Facebook
Twitter
WhatsApp
LinkedIn

Table of Contents

Leave a Comment

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Scroll to Top