17 февраля
  • -36°
  • $ 76,62
  • 91,04

Эксперт рассказал, почему не стоит делиться медицинскими данными с ИИ

Анализ медицинских данных с помощью ИИ может привести к их утечке
Эксперт рассказал, почему не стоит делиться медицинскими данными с ИИ
Изображение сгенерировано с помощью бота Kandinsky

Анализ медицинских данных с помощью нейросети может привести к их утечке, рассказал РИА Новости старший юрист MWS AI (входит в ERION, объединяющую нетелеком-активы МТС) Кирилл Дьяков.

«Использование больших языковых моделей, таких как ChatGPT, которые предлагают пользователям возможность анализа медицинской информации, может привести к утечке таких данных», — сказал Дьяков.

Он объяснил, что такие ИИ-сервисы способны запоминать пользовательские данные, обучаться на них и в дальнейшем воспроизводить информацию о пользователе, в том числе ссылаясь на медицинские данные. Это может привести к компрометации личности. Кроме того, создатели ИИ-моделей обязаны в ряде случаев раскрывать данные пользователей по решению суда, и это создает дополнительные риски для конфиденциальности.

Помимо прочего, неспециализированные модели при некорректно сформулированных запросах могут допускать ошибки в ответах, добавил Дьяков.

«Оптимальным решением является либо загрузка в нейросети обезличенных данных (условно — с удалёнными или замаскированными Ф. И. О.), либо использование специализированных систем, например в клиниках — в закрытом контуре организации, без доступа к внешним ресурсам, что делает их менее уязвимыми к атакам и утечкам по сравнению с публичными сервисами», — добавил эксперт.

Поделиться:

Сообщить об опечатке

Текст, который будет отправлен нашим редакторам:

Далее