Preview

Врач и информационные технологии

Расширенный поиск

Большие генеративные модели для интерпретации медицинских заключений: насколько это реально и безопасно для пациентов?

https://doi.org/10.25881/18110193_2025_4_72

Аннотация

С ходом цифровизации здравоохранения у пациента появился доступ к собственным медицинским документам, однако низкий уровень ясности медицинского текста часто не позволяет пациенту правильно трактовать написанное. Большие генеративные модели способны стать инструментом для адаптации медицинских текстов, однако сегодня их использование сопряжено с рисками. Целью исследования стала оценка безопасности применения больших генеративных моделей для интерпретации для пациента протоколов лучевых исследований. В ходе исследования 7 моделей выполнили упрощенную интерпретацию текста, входной набор данных включал в себя 8 протоколов компьютерной томографии. Сгенерированные интерпретации были предложены для оценки врачам и респондентам без медицинского образования. Полученные оценки были проанализированы с целью сделать вывод о безопасности внедрения подобной технологии и ее целесообразности на данный момент.

По результатам работы все модели сгенерировали текст, отвечающий основным критериям качества. Однако наблюдалось регулярное нарушение этики и безопасности. Сравнительный анализ не позволил выделить модель, лидирующую по всем критериям одновременно. Также в ходе исследования были выявлены критерии, для которых оценки врачей и респондентов без медицинского образования значимо отличались.

Было продемонстрировано, что, хотя большие генеративные модели формально успешно справляются с упрощенной интерпретацией медицинских протоколов, прямое применение их без системы контроля в клинической области крайне небезопасно. Основной проблемой является искажение исходной информации — включение дополнительных рекомендаций, диагнозов и прогнозов заболевания, что противоречит нормам общения с пациентом. Было показано, что, несмотря на потенциал технологии в рамках области, для безопасного внедрения необходима предварительная разработка системы контроля качества работы больших генеративных моделей, опросника, учитывающего компетенции как экспертов в области, так и непрофессионалов, а также четких пороговых критериев. Настоящая работа является первым шагом на пути к созданию подобной системы.

Об авторах

Ю. А. Васильев
БУЗ «НПКЦ ДиТ ДЗМ»
Россия

д.м.н.

г. Москва



И. А. Тыров
Департамент здравоохранения города Москвы
Россия

г. Москва



К. М. Арзамасов
БУЗ «НПКЦ ДиТ ДЗМ»
Россия

д.м.н.

г. Москва



А. В. Владзимирский
БУЗ «НПКЦ ДиТ ДЗМ»
Россия

д.м.н.

г. Москва



О. В. Омелянская
БУЗ «НПКЦ ДиТ ДЗМ»
Россия

г. Москва



А. П. Памова
БУЗ «НПКЦ ДиТ ДЗМ»
Россия

к.м.н.

г. Москва



Л. Н. Арзамасова
БУЗ «НПКЦ ДиТ ДЗМ»
Россия

г. Москва



Е. А. Крылова
БУЗ «НПКЦ ДиТ ДЗМ»
Россия

г. Москва



И. А. Разницына
БУЗ «НПКЦ ДиТ ДЗМ»
Россия

к.ф.-м.н.

г. Москва



Е. А. Петров
БУЗ «НПКЦ ДиТ ДЗМ»
Россия

к.б.н.

г. Москва



Е. В. Астапенко
БУЗ «НПКЦ ДиТ ДЗМ»
Россия

г. Москва



Д. А. Румянцев
БУЗ «НПКЦ ДиТ ДЗМ»
Россия

г. Москва



И. А. Шарафетдинов
БУЗ «НПКЦ ДиТ ДЗМ»
Россия

г. Москва



Список литературы

1. Park J, Oh K, Han K, Lee YH. Patient-centered radiology reports with generative artificial intelligence: adding value to radiology reporting. Sci Rep. 2024; 14: 13218. doi: 10.1038/s41598-024-63824-z.

2. Starcevic V, Berle D. Cyberchondria: towards a better understanding of excessive health-related Internet use. Expert Rev Neurother. 2013; 13: 205-13. doi: 10.1586/ern.12.162.

3. Luo A, Qin L, Yuan Y, et al. The Effect of Online Health Information Seeking on Physician-Patient Relationships: Systematic Review. J Med Internet Res. 2022; 24: e23354. doi: 10.2196/23354.

4. Васильев Ю.А., Решетников Р.В., Нанова О.Г., и др. Применение больших языковых моделей в лучевой диагностике: обзор предметного поля // Digital Diagnostics. – 2025. – Т.6. – №2. – С.268-285.

5. Hager P, Jungmann F, Holland R, et al. Evaluation and mitigation of the limitations of large language models in clinical decision-making. Nat Med 2024; 30: 2613-22. doi: 10.1038/s41591-024-03097-1.

6. Aydin S, Karabacak M, Vlachos V, Margetis K. Large language models in patient education: a scoping review of applications in medicine. Front Med 2024; 11: 1477898. doi: 10.3389/fmed.2024.1477898.

7. Cohen J. Statistical power analysis for the behavioral sciences. 2nd ed. Hillsdale, N.J: L. Erlbaum Associates; 1988.

8. Hedges LV. A random effects model for effect sizes. Psychol Bull 1983; 93: 388-95. doi: 10.1037/0033-2909.93.2.388.

9. Doshi R, Amin KS, Khosla P, et al. Quantitative Evaluation of Large Language Models to Streamline Radiology Report Impressions: A Multimodal Retrospective Analysis. Radiology 2024; 310: e231593. doi: 10.1148/radiol.231593.

10. Rahsepar AA. Large Language Models for Enhancing Radiology Report Impressions: Improve Readability While Decreasing Burnout. Radiology. 2024; 310: e240498. doi: 10.1148/radiol.240498.

11. Van Der Mee FAM, Ottenheijm RPG, Gentry EGS, et al. The impact of different radiology report formats on patient information processing: a systematic review. Eur Radiol. 2024; 35: 2644-57. doi: 10.1007/s00330-024-11165-w.

12. Steitz BD, Turer RW, Salmi L, et al. Repeated Access to Patient Portal While Awaiting Test Results and Patient-Initiated Messaging. JAMA Netw Open. 2025; 8: e254019. doi: 10.1001/jamanetworkopen.2025.4019.

13. Anyidoho PA, Verschraegen CF, Markham MJ, et al. Impact of the Immediate Release of Clinical Information Rules on Health Care Delivery to Patients With Cancer. JCO Oncol Pract. 2023; 19: e706-13. doi: 10.1200/OP.22.00712.

14. Lee H-S, Kim S, Kim S, et al. Readability versus accuracy in LLM-transformed radiology reports: stakeholder preferences across reading grade levels. Radiol Med (Torino). 2025. doi: 10.1007/s11547-025-02098-5.

15. Park J, Oh K, Han K, Lee YH. Patient-centered radiology reports with generative artificial intelligence: adding value to radiology reporting. Sci Rep. 2024; 14: 13218. doi: 10.1038/s41598-024-63824-z.

16. Ethics and Governance of Artificial Intelligence for Health: Large Multi-Modal Models. WHO Guidance. 1st ed. Geneva: World Health Organization; 2024.

17. Искусственный интеллект в лучевой диагностике: Per Aspera Ad Astra / Под ред. Ю.А. Васильева и А.В. Владзимирского. – М.: Издательские решения; 2025.


Рецензия

Для цитирования:


Васильев Ю.А., Тыров И.А., Арзамасов К.М., Владзимирский А.В., Омелянская О.В., Памова А.П., Арзамасова Л.Н., Крылова Е.А., Разницына И.А., Петров Е.А., Астапенко Е.В., Румянцев Д.А., Шарафетдинов И.А. Большие генеративные модели для интерпретации медицинских заключений: насколько это реально и безопасно для пациентов? Врач и информационные технологии. 2025;(4):72-85. https://doi.org/10.25881/18110193_2025_4_72

For citation:


Vasilev Yu.A., Tyrov I.A., Arzamasov K.M., Vladzymyrskyy A.V., Omelyanskaya O.V., Pamova A.P., Arzamasova L.N., Krylova E.A., Raznitsyna I.A., Petrov E.A., Astapenko E.V., Rumyantsev D.A., Sharafetdinov I.A. Large generative models for radiology report interpretation: assessing feasibility and patient safety. Medical Doctor and Information Technologies. 2025;(4):72-85. (In Russ.) https://doi.org/10.25881/18110193_2025_4_72

Просмотров: 32


Creative Commons License
Контент доступен под лицензией Creative Commons Attribution 4.0 License.


ISSN 1811-0193 (Print)
ISSN 2413-5208 (Online)