Кто заплатит за ошибки электронного мозга

Кто заплатит за ошибки электронного мозга

На него нельзя полагаться в диагностике и в ходе операций. Это подтверждается результатами исследования, проведенного в Оксфорде: ученые предупредили о риске, которому подвергаются люди, доверяющие свое здоровье ИИ. Американские врачи также изначально надеялись, что ИИ улучшит диагностику и снизит количество врачебных ошибок. Однако выяснилось, что электронные системы ошибаются чаще, чем люди.

В статье, опубликованной Высшей бизнес-школой Университета Джона Хопкинса, исследователи поднимают важный вопрос: кто несет ответственность за ошибки ИИ? В США судебные органы уже перегружены исками от людей, пострадавших из-за неверных рекомендаций ИИ. Медицинское сообщество не знает, как найти баланс между мнением врача и участием ИИ в лечении. Профессор Техасского университета Шевали Патил отметил, что нереалистичные ожидания от ИИ создают непосредственную угрозу для пациентов. Если даже инженеры, разработавшие алгоритм ИИ, не могут объяснить, как он формирует окончательный результат, то как врачам можно доверять ему в клинической практике? А ведь в судебных разбирательствах разработчики ИИ избегают наказания.

Медики высказывают недовольство тем, что ИИ вместо помощи создает дополнительное бремя в лечении пациентов. Biologyinsight сообщает, что системы ИИ допускают серьезные ошибки. Системы, предназначенные для определения риска сердечных приступов, могут ошибочно указывать на совершенно здоровых пациентов и пропускать тревожные признаки у других. Врачи в клиниках не могут понять, на каких основаниях сложные системы ИИ принимают решения, и не могут обосновать своим пациентам предлагаемые искусственным интеллектом методы лечения.

Медицинские эксперты приходят к однозначному выводу о ненадежности систем ИИ. Клиники уже несут значительные убытки из-за избыточной доверчивости к искусственному интеллекту. Из-за ошибок, допущенных ИИ, приходится проводить дополнительные исследования, что влечет за собой значительные расходы и ведет к судебным разбирательствам с пациентами, пострадавшими от электронного разума. Большинство врачей считает, что модели ИИ не должны использоваться при принятии клинических решений, от которых зависит жизнь пациента.

Scientific American указывает, что многие публикуемые материалы искажают реальность, рисуя слишком оптимистичный портрет точности работы ИИ. Такие публикации направлены на привлечение новых инвестиций. Однако зачастую технологии не готовы к практическому применению. Разумеется, создатели ИИ не будут нести ответственность за работу своих алгоритмов. Компании и так находятся в сложном финансовом положении. Хотя они зарабатывают миллиарды, на технологии необходимо тратить сотни миллиардов. Поэтому, если вы заботитесь о своем здоровье, не доверяйте ИИ безоговорочно.

Николай Иванов.

Источник: mirnov.ru

Что будем искать? Например,Человек

Мы в социальных сетях