img
img
img

Исследование, опубликованное в журнале Scientific Reports, показало, что искусственный интеллект ChatGPT демонстрирует ограниченные способности в области психиатрической диагностики. Авторы отмечают, что нейросеть не может достоверно отличить депрессию от тревожных расстройств и в ряде случаев даёт неточные рекомендации при анализе симптомов пациентов.

Специалисты проанализировали 120 клинических случаев, сопоставив ответы ChatGPT с решениями практикующих врачей. Результаты оказались крайне неоднородными. Наиболее высокий уровень совпадений зафиксирован в области назначения медикаментов — 98,3%, а также при расчете дозировок — 97,5%. В то же время при проведении дифференциальной диагностики, то есть сравнительном анализе возможных заболеваний, эффективность модели оценили как «удовлетворительную».

Однако при взаимодействии с пациентами система показала серьёзные ограничения. ChatGPT полностью провалил задачу по проведению клинического опроса, необходимого для выявления жалоб и эмоционального состояния больного. Совпадение с действиями психиатров по этому пункту составило 0%.

Ещё одним слабым местом оказалась оценка рисков. Алгоритм предупреждал о побочных эффектах лекарств лишь в 13,3% случаев и крайне редко корректно определял вероятность суицидальных наклонностей или агрессивного поведения.

Исследователи подчеркнули, что несмотря на высокий уровень автоматизации, искусственный интеллект не способен заменить человеческий опыт в психиатрии. Врач, по их словам, не просто назначает лечение, но и оценивает личность пациента, его эмоциональное состояние и невербальные реакции — то, что пока недоступно даже самым продвинутым нейросетям.

В итоге авторы пришли к выводу, что ChatGPT и подобные системы могут использоваться лишь как вспомогательный инструмент — для обработки данных и подбора медицинской информации, но не для постановки психиатрических диагнозов.

Читать нас в Дзен Новостях


Автор Надежда Сарычева

Контакты, администрация и авторы