15/12/2025
Поговоримо про нову і небезпечну тенденцію, з якою почали стикатися лікарі. Пацієнт, отримавши результати обстежень, завантажує їх у ChatGPT з проханням «пояснити простіше», а потім надсилає лікарю саме цей, перероблений ШІ, текст, а не оригінальний документ.
1. Втрата ключових нюансів та «лікарської мови».
Медичні висновки написані специфічною, точною мовою не для того, щоб вас заплутати, а тому, що кожне слово має значення. Таким чином ми розуміємо масштаб проблеми.
2. Ненавмисне спотворення та «галюцинації».
ChatGPT не «розуміє» текст, він його перекомбіновує. У цьому процесі він може випадково змінити сенс або додати інформацію, якої не було в оригіналі.
3. Втрата контексту та кількісних даних.
Лікар-діагност вказує точні розміри, титри, індекси. Для ChatGPT це просто цифри, які він може округлити, узагальнити або взагалі пропустити. Оригінал: «Протрузія L4-L5 до 4 мм з помірною компресією дурального мішка». Версія ChatGPT: «Є протрузія в попереку». Вся важлива інформація про розмір та ступінь компресії втрачена.
4. Етична відповідальність.
Лікар несе відповідальність за свої висновки, які базуються на оригінальних медичних документах. Він не може і не повинен довіряти переказу, зробленому невідомим алгоритмом без медичної ліцензії та відповідальності.
Надсилайте лікарю тільки оригінальні документи:
✔️Скани або фотографії паперових висновків.
✔️PDF-файли, отримані з лабораторії чи діагностичного центру.
✔️Фотографії рентгенівських знімків.
Саме в оригінальному тексті лікар бачить точні формулювання, кількісні показники, прізвище лікаря, що проводив обстеження, та назву закладу, що дозволяє йому оцінити рівень довіри до висновку.
Намагаючись «допомогти» лікарю і «спростити» для нього інформацію за допомогою ChatGPT, ви насправді позбавляєте його найціннішого - фактів. Ви ненавмисно спотворюєте клінічну картину, що може призвести до діагностичної помилки. Найкраща допомога, яку ви можете надати своєму лікарю - це надати йому повні, незмінені, оригінальні дані ваших обстежень.