Фото: Юлия Власова / Новый Калининград
Искусственный интеллект в последнее время начали активно применять в медицине — в том числе при скринингах и анализе изображений лучевой диагностики. О том, как врачи используют новые технологии, стоит ли ожидать восстания машин и насколько этично использование ИИ в этой сфере, рассказали эксперты на форуме для ведущих СМИ России «В фокусе — здоровье», который провела компания «Гедеон Рихтер». За дискуссией наблюдал и корреспондент «Нового Калининграда».
Термин и дисциплина «искусственный интеллект» впервые родились в 1956 году на Дартмутском семинаре, где исследователи Джон Маккарти, Марвин Мински, Натаниэль Рочестер и Клод Шеннон выдвинули гипотезу о возможности моделирования человеческого мышления и обучения с помощью машин.
Активно про технологию заговорили во время пандемии коронавируса. В 2020 году в Москве стартовал эксперимент, инициированный Правительством России. Во время него искусственным интеллектом было обработано 14 млн медицинских исследований. «Сначала эта программа работала в Москве во всех поликлиниках, потом присоединились стационары, а теперь подсоединяются регионы. Соответственно, 153 медицинские организации работают, 1507 диагностических инструментов подключено. В режиме реального времени всё это обрабатывается», — рассказала кандидат медицинских наук, старший преподаватель кафедры лучевой диагностики Московского областного научно-исследовательского клинического института им. М.Ф. Владимирского и член Национальной ассоциации управленцев сферы здравоохранения Елена Панина.
Елена Панина. Фото: Артём Ганжа
Эксперт напомнила, что граждане каждый год проходят диспансеризацию, направленную на раннее выявление хронических заболеваний, и привела несколько примеров, когда врачи не сразу смогли обнаружить рак лёгких у пациентов. Так, у мужчины из Челябинской области не замечали новообразование шесть лет, несмотря на ежегодное прохождение флюорографии. «Рентген — для рака, флюорография — не для рака. Он же проходил флюорографию», — пояснила эксперт. По её словам,вопрос «кто виноват, что делать и как это исключить» после этой истории специалисты приняли. «Развиваемся и доносим до новых технологий», — добавила она.
Похожая ситуация произошла с 35-летним учителем, который ежегодно ходил на флюорографию (эксперт привела результаты исследований за 2013-2016 год). Медики изменения на снимках заметили в 2016 году. При этом при обработке исследований искусственным интеллектом оказалось, что ИИ обнаружил бы их ещё в 2014-м. Здесь эксперт отметила такой сработавший показатель, как чувствительность — метрика, используемая для оценки способности модели предсказывать истинно положительные результаты каждой доступной категории.
«Рентген и КТ — это соотношение структур белого и серого.<...>Наши экраны передают 256, и в этом еще рентгенолог должен разобраться. Чуть светлее, чуть темнее, темнее ли или светлее — это зависит от того, какие рентгенлаборант поставил параметры.<...>Если меньше двух миллиметров новообразование, то как его увидеть на белой кости? Никак. Прогнали это изображение [через ИИ]. В 2016 году все это выяснилось через тогда первую нейронную сеть — нашёл», — объяснила Панина.
Чтобы совместить условия для воспроизведения результата, собирается датасет — структурированный и обработанный набор данных, который используется для обучения и тестирования моделей машинного обучения, проведения анализа и научных исследований.
Специалист также упомянула модель убеждения — определённый процесс восприятия информация, в результате которого человек может поменять своё поведение или мнение в зависимости от полученного сообщения. На деле же объективная реальность не зависит от убеждений, представлений и степени вовлечения. Исследователи также доверяли ИИ, когда появились первые модели. Однако когда человек начинает перечитывать выданный нейросетью текст, то он может заметить неточности. «Это не так критично с текстами, но когда мы говорим про искусственный интеллект в медицине, мы не можем сказать пациенту: „Что-то там переврал, лишнее нашел“, — отметила Панина. — Дело в том, что сейчас все технологии построены так, что есть ложноположительные срабатывания, когда искусственный интеллект находит больше патологий или меньше, чем есть». На этом этапе необходимо участие врача, который должен посмотреть результаты обследований, т.к. искусственный интеллект — это алгоритм, у которого отсутствуют критическое мышление и результаты предыдущих исследований пациента. Он не обосновывает диагноз, а только высказывает предположения, основываясь на информации из базы данных «Если мы, как люди, видим варианты нормы, можем обсудить и вступить в диалог, то искусственный интеллект — это код, и он может только код с кодом общаться», — обратила внимание исследователь.
Кроме того, Елена Панина отметила опытрандомизированного контролируемого испытания, когда 99 врачам из разных регионов России предлагалось описать КТ грудной клетки: «В этот момент в ноутбуке стояла программа, которая оценивала, куда врач смотрит, сколько времени он тратит на описание, как он быстро пролистывает и так далее (имитация рабочего времени, всё это под запись экрана). Врач, который без ИИ, описал только 41% случаев<...>. Врач, который использовал ИИ, и искусственный интеллект его ещё подсвечивал: „Ты вот сюда посмотри“, — описал 91%».
По словам эксперта, искусственный интеллект — это «умная подсказка» для врача, которая помогает «быстрее описывать и больше находить». Первоочередная задача, которая стоит перед ИИ, — выявление, классификация и наблюдение.
Фото: Артём Ганжа
У искусственного интеллекта в медицине есть ещё одно направление — в условиях нехватки кадров в сфере здравоохранения он может стать инструментом, который позволит специалистам работать быстрее и качественнее.
По данным ВОЗ, к 2040 году в мире не будет хватать 13 млн медицинских кадров. «Если кадров не хватает, то нужны инструменты, которые нашим существующим специалистам помогут работать лучше, быстрее, качественнее. Любой другой инструмент и хороший организм, который вам нравится, можно применять. Такие цели — качественно, проще и дешевле, — добавила Панина. — Пересмотр искусственным интеллектом изображений дешевле, чем сидит врач, который все это смотрит. Компьютерную томографию, где 100, 200, 300 кадров выходит, искусственный интеллект смотрит в течение минуты. А врач? Открывай, загрузи, пролистай, отпиши — в минуту никогда в жизни не уложит, поэтому быстрее и дешевле». Однако при таком использовании искусственного интеллекта ответственность за ошибку все равно будет нести врач, поставивший подпись в заключении, подчеркнула эксперт.
ОпросEuropean Society of Radiology2022 года затронул 690 рентгенологов из 35 стран. 75% врачей сочли результаты, предложенные искусственным интеллектом, достоверными, а 23% — испытали значительное снижение нагрузки. «Это тоже классный результат. Если у меня сдельная работа, а у нас в частной медицине, в частных клиниках только сдельная работа, то если я могу описывать быстрее, то могу больше зарабатывать», — прокомментировала результаты опроса Елена Панина.
Кроме того, 34% признали, что опираются на искусственный интеллект, и упоминали это в заключении. При этом 17% врачей рассказали об этом своим пациентам: «Это, мне кажется, хороший результат с точки зрения формирования убежденности. Нашим пациентам тоже надо привыкнуть: нужен где-то искусственный интеллект или нет».
Из 690 участников опроса 363 ответили, что не стали бы покупать сертифицированный искусственный интеллект для использования в работе. 44,4% из них сказали, что от него нет значимой дополнительной пользы, а 26,4%, — что реальное применение продукта отличается от заявленного в рекламе. Ещё 22,9% указали, что искусственный интеллект добавляет дополнительную работу.
В использовании ИИ в сфере здравоохранения намечается несколько трендов:
тренд медицинских изделий с ИИ для здравоохранения (анализ изображений лучевой диагностики, данных ЭМК, фармакологической терапии, цифровых ЭКГ и видеопотока);
увеличение биомаркеров — количественного показателя, влияющего на исходы («Врач при анализе должен решать большое количество задач, но часто оценивает „на глазок“. Большинство врачебных ошибок совершается за пределами основной задачи (случайные находки). ИИ может решить простые и трудоемкие задачи, оставив для врача когнитивно сложные»);
мультизадачность;
потребность в оценке экономического влияния от медицинского ИИ;
сокращение нагрузки на врачей и автоматизация профилактических исследований;
большие языковые модели (БЯМ) LLM («GigaChat сдал экзамен по специальности «Лечебное дело» 13.02.2024 — оценка 4(хорошо). GigaChat сдал (84%) тестовую часть первичной аккредитации на врача-терапевта лучше ChatGPT4 (82%);
увеличение доступных данных для ИИ (вокруг человека, а не пациента): медицинских, фармакологических, финансовых, административных, страховых и внешних;
повышение уровня готовности клиник к ИИ (информирование, подготовка, интеграция, погружение, оптимизация и медицинский ИИ будущего);
создание ИИ-агентов.
Как отметила Панина, искусственный интеллект используется не только в медицине, но и в повседневной жизни — многие задают ему вопросы, спрашивают советы, загружают данные для анализа и так далее.
«Смелые экспериментаторы загружают свои заключения в DeepSeek, ChatGPT и так далее. Официально ни один вендор (физическое или юридическое лицо, которое производит и/или продает товары, услуги или IT-продукты под своим собственным брендом — прим. „Нового Калининграда“), который сегодня имеет регистрационное удостоверение на рынке B2C (модель коммерческого взаимодействия, при которой компания продает товары или услуги конечным потребителям для их личного использованиячастным клиентам.— прим. „Нового Калининграда“), не работает по одной простой причине — вопрос этики.<...>Со школьной скамьи надо объяснять, что такое технология для развлечения, а что такое технология для нашей жизни. Это два разных направления и сценария применения этих технологий», — подчеркивает Панина.
«Искусственный интеллект — не то чтобы так уж полезен, хотя на самом деле штука удобная. Искусственный интеллект — это выдача вашим компьютером той информации по заданному вами вопросу, которая есть на сегодняшний день. Искусственный интеллект систематизирует самые разные представления об этом, порой не очень достоверные, и выдаёт усреднённый ответ на ваш вопрос. Этот ответ может иметь разные качества, но, как правило, всё-таки эта штука скорее полезная, — считает врач-психиатр, профессор кафедры психиатрии, психотерапии и психосоматической патологии ФНМО Медицинского института РУДН Юрий Сиволап. — Общение [с нейросетью насчет диагноза], конечно, это не очень хорошо. Что касается ChatGPT или аналогичной информации — это хорошо для скрининга, для получения первичной информации, а потом желательно полученную информацию перепроверить у профильного специалиста».
Юрия Сиволап. Фото: Артём Ганжа
Появление новой технологии может вызвать вполне справедливые опасения. Как отмечает Сиволап, искусственный интеллект — далеко не первая разработка, вокруг которой собираются страхи. В качестве примера он привёл луддизм — движение рабочих начала XIX века в Англии, которые протестовали против внедрения машин в производство, так как боялись, что они отберут у них работу и ухудшат условия труда. Кроме того, представители церкви испытывали страх перед печатным станком Гутенберга, поскольку они «снабжали людей довольно зауженным объёмом знаний» и появление книг «грозило нарушением их монополии» на информацию для паствы. Помимо прочего, в начале XXI века некоторые были убеждены в том, что телефоны вызывают рак мозга, а компьютеры сделают детей безграмотными.
Новые изобретения также создают риск исчезновения профессии. Так, по мнению Сиволапа, «чемоданы на колесиках убили профессию железнодорожного носильщика в России». В XX веке извозчики также невзлюбили трамваи, поскольку опасались потери дохода. Страхи вызывает и появление новых лекарств (к примеру, перед вакцинами, гормональными препаратами в менопаузе или антидепрессантами).
«Появились опасения, которые связаны с искусственным интеллектом. Причем никого я не хочу обидеть, но я заметил (это мои наблюдения, очень небольшая выборка), что, как правило, ИИ боятся люди, у которых, собственно, интеллект не запредельный», — сказал Сиволап (при этом,по данным ВЦИОМ, 52% россиян доверяют ИИ). Врач «убеждён, что искусственный интеллект не представляет большей опасности, чем электричество, кинематограф, коммерческая авиация, автомобили и особенно электросамокаты».
Пока у искусственного интеллекта нет «внутреннего Я», который делает выбор и принимает решения«, говорить об его этике «бессмысленно, нужно говорить об этике разработчика и пользователя», считает Елена Панина. Она также высказала мнение, что ИИ должен научиться этичным выборам у человека. «Искусственный интеллект — это алгоритм. У него нет правильного направления. Вы можете заложить только „А“ или „Б“. Когда мы говорим про „А“ и „Б“, мы сталкиваемся с разными видами искажений. Искусственный интеллект и наши революции — это то, как мы заложили этот уровень. Он не умеет думать, — резюмировала она. — Если [ИИ — это] революция, то он должен быть абсолютно автономен. Если эволюция, то это дополнительный инструмент, который будет развиваться».
Текст: Виктория Никонорова, фото: Юлия Власова, / «Новый Калининград»; в материале также использованы фотографии Артёма Ганжи.