Искусственный интеллект рекламируют как решение всех проблем, а на деле он часто ошибается и не может заменить человека — инженер из Принстона объясняет почему

Просмотры:
2948
Автор:
Сергей Пивоваров
Дата:

Артем Марков / Дарья Светлова / theБабель

Возможности и перспективы искусственного интеллекта (англ. Artificial intelligence, AI) уже обсуждают не только ученые, но и бизнесмены, политики, журналисты и просто пользователи технологий. При этом большинство потребителей не до конца понимают, что такое AI. Этим стали пользоваться разные компании, наклеивая на свои продукты ярлык «искусственного интеллекта» и рекламируя его как средство для решения любых задач. AI действительно эффективен в некоторых сферах: может распознавать лица и речь, блокировать спам, подбирать контент по рекомендациям. Однако он не подходит для прогнозирования несчастных случаев или эффективности сотрудников. Об этом рассказал в своей лекции специалист по компьютерным технологиям из Принстонского университета Арвинд Нараянан. theБабель выбрал ключевые моменты из его выступления.

Арвинд Нараянан — доцент кафедры компьютерных наук в Принстонском университете, специалист в области конфиденциальности и безопасности информации в интернете. На этой неделе он выступил с лекцией в Массачусетском технологическом институте и попытался развенчать мифы, связанные с технологиями искусственного интеллекта. По его словам, из-за обманчивой маркетинговой тактики AI превратился в «змеиное масло» (нарицательное название поддельного снадобья, которое продавали в XVIII—XIX веке как «лекарство от всех болезней»).

Многие компании просто используют ярлык AI. Искусственный интеллект — это общий термин для целого семейства технологий. Некоторые из них действительно успешны, и этим подогревается интерес широкой общественности. Однако большинство людей не до конца понимают, что такое AI, и ошибочно причисляют к нему чат-боты или системы автоматизации банкинга. Многие компании пользуются этим, наклеивая ярлык «искусственного интеллекта» на любой свой продукт и зарабатывая на этом миллионы долларов. Сегодня большое количество стартапов, рекламирующих себя как «компании AI», на самом деле вообще не используют эту технологию в своих приложениях.

Реклама AI как средства для решения всех проблем сильно влияет на общественное мнение. В результате, согласно последним соцопросам, американцы считают, что до автоматизации большинства рабочих мест осталось всего десять лет. При том, что даже по самым оптимистичным прогнозам специалистов эффективная технология AI появится примерно через 50 лет.

Сферы применения AI можно условно разделить на три группы:

  • восприятие данных: распознавание треков, лиц, речи; медицинская диагностика по рентгеновским снимкам; определение фейков. В этой области AI добился успеха и продолжает прогрессировать.
  • Автоматическое оценивание: блокировка спама, языка ненависти; проверка текстов на плагиат; рекомендация контента. С этим AI может справиться, но не идеально. Все потому, что такие задачи предполагают оценочное суждение. А в этом даже люди не всегда приходят к единому мнению.
  • Прогнозирование поведения: рецидив у преступников; эффективность сотрудников; террористические риски, вероятность несчастных случаев. Здесь AI никогда не даст стопроцентный результат. Однако именно в этой сфере его чаще всего используют как «змеиное масло».

AI не может эффективно предсказывать будущее, сколько бы данных ему не скормили. Сложные алгоритмы с большим количеством параметров и переменных дают примерно такие же результаты, что и простые линейные формулы. Нараянан приводит пример исследования, когда ученые попытались вывести формулу воспитания успешных детей. В нем участвовали 4 242 семьи. Ученые несколько лет наблюдали за каждым ребенком и собрали около 13 тысяч различных параметров. В итоге эта формула оказалась настолько же точной в прогнозах, как и линейная регрессия, учитывающая всего четыре параметра.