ChatGPT ПРОВОЦИРУЕТ ДИЗИНФОРМАЦИЮ В СФЕРЕ ЗДРАВООХРАНЕНИЯ

Выход ChatGPT спровоцировал много дискуссий. От краха привычных поисковых систем, до краха целых специальностей и новой антиутопии. По этому поводу приводим небольшой обзор наших коллег из impatient.health.

Будущее, управляемое ИИ (AI), предсказывалось много раз. Джеффри Хинтон, «крестный отец» глубокого обучения и один из самых знаменитых ученых нашего времени, в 2016 году на конференции по искусственному интеллекту в Торонто сказал: «Если вы работаете радиологом, вы похожи на койота, который уже стоит на краю пропасти, но еще не посмотрел вниз».

Глубокое обучение (deep learning) настолько хорошо подходит для анализа изображений МРТ и КТ, рассуждал он, что люди должны просто «прекратить обучать рентгенологов сейчас», потому что «через пять лет совершенно очевидно, что глубокое обучение (deep learning) станет лучше».

Перенесемся в 2023 год, когда ни один рентгенолог пока не был заменен. Скорее в настоящее время признано, что машинное обучение для радиологии сложнее, чем кажется; по крайней мере, на данный момент люди и машины дополняют сильные стороны друг друга.

ChatGPT — один из многих чат-ботов, которые приняли модель большого языка GPT-3

Было бесчисленное количество обещаний и разочарований в отношении ИИ (AI). Фиаско IBM Watson, пожалуй, самый очевидный пример для всех, кто занимается естественными науками.

Кевин Келли (автор, технократ и редактор-основатель Wired) объясняет, что при рождении каждая новая технология запускает цикл технологической паники, в которой  семь фаз:

1.      Не надоедай мне этой ерундой. Это никогда не сработает.
2.      Хорошо, это происходит, но это опасно, потому что это плохо работает.
3.       Эта вещь настолько мощная, что несправедлива по отношению к тем, у кого нет к ней доступа.
4.      Подождите, это работает слишком хорошо. Слишком популярно. Нам нужно это присечь. Сделайте что-нибудь!
5.      Она повсюду, и от нее никуда не деться.
6.      Я собираюсь сдаться.
7.      Давайте сосредоточимся на реальной проблеме — следующей текущей проблеме.

Это плавно подводит нас к ChatGPT, который вошел в общественное сознание в конце ноября 2022 года, быстро удивив скептиков (этап 1) и достигнув этапа 2 в течение нескольких часов.

Но грядут фазы 3–6, а у некоторых они уже наступили. Они приближают осознание, что независимо от того, опасно это или нет, ChatGPT в ближайшее время войдет во все сферы нашей жизни и в итоге в сферу здоровья. Но насколько это здорОво?... В равной степени это относится к социальным сетям и факту, что большинство граждан мира теперь получают новости с помощью алгоритма, адаптированного к их интересам и/ или предрассудкам.

Член-корреспондент РАН назвал иммуностимуляторы «техношаманизмом»
Редакция офарме.рф

ChatGPT — один из многих чат-ботов (в число других входят Galactica от Meta и LaMDA от Google), которые приняли модель большого языка GPT-3. Он быстро получил широкое распространение благодаря исключительной производительности и бесплатного доступа для публики. Легко быть ошеломленным мгновенной способностью подчиняться языковым задачам...

Через несколько минут после выпуска пророчества достигли апогея:

  «Это сделает поиск излишним… это убийца Google

  «Это так близко к реальному интеллекту (AGI). Чат-боты превращаются в реальных людей!»

  «Это мой новый лучший друг на всю жизнь».

Восторги не удивительны. Десятилетия научной фантастики научили нас, что переломный момент для наступления новой эры наступит, когда компьютерные системы предоставят нам мгновенный доступ к, казалось бы, безграничным коллекциям знаний через максимально дружественный и гуманизированный интерфейс.

Даже Сэм Альтман, генеральный директор OpenAI (создатель ChatGPT), писал еще в 2021 году: «В следующие пять лет интеллектуальные компьютерные программы будут читать юридические документы и давать медицинские советы. В следующем десятилетии они будут работать на конвейере и, возможно, даже станут компаньонами. А в последующие десятилетия они сделают почти все, в том числе новые научные открытия, которые расширят наше понятие обо всем».

Он продолжил, затаив дыхание: «Эту технологическую революцию не остановить. Эта революция создаст феноменальное богатство. Цена многих видов труда (который определяет стоимость товаров и услуг) упадет до нуля, как только к рабочей силе присоединится достаточно мощный ИИ. Мир будет меняться так быстро и радикально, что потребуется не менее радикальное изменение политики, чтобы распределить это богатство и позволить большему количеству людей вести жизнь, которую они хотят».

Но есть один недостаток: ChatGPT не всегда прав. На самом деле, он совершенно счастлив выдумывать полную чушь и доносить ее очень убедительно.

Эмили Бендер и Чираг Шах — профессора вычислительной лингвистики, информатики и инженерии в Вашингтонском университете, как два вокалиста начинающей группы, пытаются предупредить нас, чтобы мы относились к большим языковым моделям как к неприкосновенным, и, в частности, объясняя, что этот тип ИИ (AI) не имеет абсолютно никакого отношения к реальному интеллекту: «Идея всезнающего компьютера пришла из научной фантастики... и должна остаться там. Несмотря на соблазнительную беглость ChatGPT и других языковых моделей, они остаются непригодными в качестве источников знаний. Мы должны бороться с инстинктом доверять машине, звучащей по-человечески».

ChatGPT не всегда прав. На самом деле, он совершенно счастлив выдумывать полную чушь и доносить ее очень убедительно

Бендер и Шах отмечают, что языковые модели соблазняют нас использовать их для решения задач, но они для этого не предназначены, а только усугубляют ситуацию. В частности, дают больше дезинформации и более поляризованные дебаты.

Когда дело доходит до естественных наук, отсутствие точности особенно беспокоит. На самом деле, Галактика Меты просуществовала всего три дня из-за к быстрой реакции, что особенно беспокоит, поскольку это платформа, предназначенная для создания научных текстов. Он был не в состоянии отличить правду от лжи или нести ответственность за то, что говорил. Он составлял поддельные статьи (иногда приписывая их настоящим авторам) и даже генерировал вики-статьи об истории медведей в космосе с такой же готовностью, как и о белковых комплексах.

Легко распознать фантастику, когда она связана с космическими медведями, но сложнее, когда пользователи плохо разбираются в теме. Майкл Блэк, режиссер в Институте интеллектуальных систем им. Макса Планка в Германии написал в Твиттере: «Во всех случаях это было неправильно или предвзято, но звучало правильно и авторитетно. Я думаю, это опасно». Слово «опасный» — это то, что люди часто используют для описания LL».

Но разве эти модели не улучшаются быстро? Конечно. Но их способность звучать убедительно так же быстро становится лучше. Исследования показывают, что даже экспертам становится все труднее замечать ошибки.

Алексей Водовозов о медицинской (без)грамотности и демонах в телевизоре
Редакция офарме.рф

Вполне вероятно, что ChatGPT будет признан дезинформационным и будет держаться подальше от здравоохранения из-за этих недостатков. Точно так же, как мы знаем, что лента Instagram модели редко изображает «реальную жизнь», мы должны научиться быть осторожными, полагаясь на точность информации. Проблема в том, что мы все еще соблазняемся тем, что хотим услышать. Поскольку естественные наук проигрывают в битве с дезинформацией, положительные и отрицательные стороны этих инструментов равны в меру.

Фантастическая идея всезнающего компьютера основана на фундаментально ошибочном представлении о том, как работает Знание (knowledge). Чтобы изобрести его, нам понадобится всеобъемлющий, полностью правильный набор информации, который представляет все, что нам когда-либо нужно было знать. И Интернет пока не таков.