Почему искусственный интеллект не может заменить человека
Главный страх третьего тысячелетия — захвативший планету ИИ, которому мы больше не нужны, пока что остается невротической фантазией. На деле разработка и внедрение алгоритмов в глобальных масштабах требует нашего огромного внимания и ставит перед нами всё новые задачи, пишет интернет-издание «Нож».
ИИ развивается и интенсивно, и экстенсивно (и внутри своей сферы, и охватывает другие). Разработчики, заказчики и пользователи плохо представляют себе последствия такого распространения технологии.
ИИ выполняет принципиально новые функции, которые не мог делать человек или делал иначе
В медицине разрабатываются решения по транспортировке микрочастиц; в фармацевтике и материаловедении алгоритмы моделируют новые соединения и просчитывают их устойчивость в различных условиях; в фермерстве используются микроклиматические саморегулирующиеся системы и системы обследования состояния животных и растений; в финансовой сфере внедряются алгоритмы предотвращения мошенничества; спутниковые данные используются для анализа страховых случаев; в сфере автономных разработок развивается симуляция окружающей среды и моделирование чрезвычайных ситуаций.
В этих сферах ИИ сопровождает человеческую деятельность и помогает решать проблемы, связанные с масштабами (микро- или макро-), комплексностью и скоростью реализации задач.
В фармацевтике алгоритмы обрабатывают большое количество данных о химических соединениях, компонентах, реакциях для улучшения существующих лекарств; в здравоохранении анализ визуальных данных уточняет диагностику заболеваний; в фермерстве настраивается контроль теплиц и сбор урожая; в финансовой сфере алгоритмы принимают решения о кредитовании и предлагают финансовый менеджмент; в автоматизации складов роботизируется логистика и управление; в промышленном производствеИИ организует труд; в автономной логистике предпринимаются попытки решить проблему «последней мили» (доставки до точного места или конкретного человека); спутниковые данные помогают планировать сельскохозяйственникам; в государственной безопасности применяются комплексные алгоритмы анализа данных о гражданах.
В основном функции ИИ в этой группе связаны с накоплением и обработкой больших данных для последующего принятия решений человеком.
ИИ заменяет работу человека
В промышленном производстве распространяется автоматизация рутинной работы и документооборота; ручная работа частично роботизируется в строительстве, промышленной уборке, охране; в сфере приватности и анонимности алгоритмы используются в защите персональных данных; в логистике транспорт становится автономным; в кибербезопасности алгоритмы отслеживают угрозы.
В этой группе ИИ действительно берет на себя функции человека, но не заменяет человеческий труд вообще. Мы видим, что разработки не становятся независимыми сущностями, а постепенно и аккуратно способствуют освоению новых областей знания.
Реальная динамика изменения на рынке за последние 35 лет в США показывает, что лишь немного сокращается доля рутинного труда — как ручного, так и умственного, и при этом настойчиво набирает обороты нерутинная ручная и интеллектуальная занятость:
Ту же логику можно увидеть на ресурсе-предсказателе, где можно узнать вероятность и причины потенциальной роботизации конкретной специальности.
Первыми будут автоматизированы те работы, где больше всего рутины и повторяющихся задач, меньше неизвестности и неопределенности — так называемые скучные работы: ремонтники часов, швеи, телепродавцы, составители налогов и т. д. Этот труд легко стандартизировать и воспроизвести алгоритмически.
А меньше всего подвержены алгоритмизации такие специалисты, как, например, социальные работники, психологи, социологи, поскольку они выполняют ту тонкую аналитическую и эмоциональную работу, которую не делегировать алгоритмам.
Возможности ИИ сразу становятся ограниченными в работе с эмоциями и чувствами, в проявлении понимания, в определении неочевидного смысла и спонтанной изменчивости.
Свежая статья в Nature предлагает одно из объяснений ограничениям, с которыми неизбежно сталкивается ИИ: в основе машинного обучения лежат формализация и математический анализ — а у них есть свои неразрешенные проблемы. В некоторых сценариях машинного обучения невозможно доказать, может ли алгоритм решить конкретную задачу, и это упирается в математические задачи (в частности, в континуум-гипотезу). Нельзя доказать или опровергнуть, что алгоритмы, обучающиеся на больших наборах данных, смогут одинаково хорошо работать на разных выборках. Тем более что не все данные хорошо формализуются.
Что алгоритмы уже умеют делать, так это воспроизводить то, чему они обучаются, не вникая в смысл, а размечивая «да» или «нет». Именно поэтому им не присуще чувство юмора, хотя они могут «сочинять» музыку. Секрет такого творчества очень схож с изобретательством алгоритмов, которые обыгрывают в шахматы и го или даже в Dota 2. Но та же AlphaZero не может научиться другим играм, кроме го, потому что правила уже не настолько прозрачны.
Последующее поражение ИИ в Dota 2 показало, что алгоритмы всё-таки не способны пока на командную работу с ее спонтанной коммуникацией и разделением обязанностей.
То же показал и случай роботизированного отеля Henn-na в Японии: спустя три года руководство приняло решение «уволить» больше половины роботов из-за жалоб клиентов о том, что они не справляются со своими задачами. Кроме того, они были дорогими в обслуживании в обновлении, что оказалось экономически невыгодным.
Алгоритмы действительно считывают и воспроизводят правила лучше людей, поэтому их соблюдение — самая оптимальная стратегия, касается ли это высчитывания ходов или джазовых канонов. Именно поэтому музыка ИИ — это вариация на тему правил и формализации. Иными словами, нейронные сети воспроизводят паттерны, которые лучше всего справляются с поставленной им задачей. Но о красоте, изящности и «настоящести» этих паттернов дальше судить нам.
Поэтому вопрос с машинным искусством не в том, считать ли то, что делают алгоритмы, искусством, — а будем ли мы получать такое же удовольствие от него, как, скажем, на живых джазовых импровизациях.
Что пугает разработчиков, или механизмы принятия решений ИИ
Игры с возможностями ИИ вызывают серьезные вопросы. Далеко не во всех областях мы готовы впускать алгоритмы в производственные процессы — и уж точно не в управление или принятие жизненно важных решений. В этом смысле искусственный интеллект беспокоит разработчиков не меньше, чем простых людей. В этом признались эксперты — авторы отчета Исследовательского института AI Now в Университете Нью-Йорка за 2017 год. Основное беспокойство вызывают черные ящики, которые создают закрытые алгоритмы внутри себя. Проблема с черными ящиками называется проблемой объяснимости ИИ. Когда чат-боты Facebook столкнулись с барьером — не получили одобрения от операторов-людей, — то стали обходить его, придумывая новые запросы. Разработчики обнаружили диалог ботов, в котором слова ничего не значили с точки зрения человека, но в нем боты скооперировались с неясной целью. Ботов отключили, но осадочек остался.
Алгоритмы находят неожиданные возможности там, где человек не предусматривает жесткие ограничения: они ведут себя как хакеры и ищут оптимальные решения задач. Это происходит и в игровых вселенных: например, в EVE Online алгоритмы устроили альтернативную добычу ресурсов, не вступая во взаимодействие с другими игроками, поскольку их стратегия оказалась наиболее выигрышной с точки зрения теории игр, а не с позиции командной работы.
Новые случаи независимого поведения алгоритмов усиливают тревогу, особенно из-за стремления разработчиков дать ИИ право на самостоятельное принятие решений. И если в играх, социальных сетях и творчестве ошибки еще могут быть незаметны или безболезненно исправлены, то риски применения ИИ в сферах, связанных с благополучием человека, требуют очень большого внимания и прозрачности алгоритмов. Проблема объяснимости сводится к вопросу о том, как ИИ на самом деле принимает решения.
Этим вопросом активно занимаются разработчики беспилотных автомобилей, экспериментируя с квантификацией этики, доверия и морали. И такие эксперименты еще легитимны, пока потенциальные риски могут быть оправданы стечением обстоятельств — например, смерть пешехода по вине самого пешехода легко укладывается у нас в голове. Но риски перестают быть оправданными совсем, когда человек (и не один!) может пострадать только по вине технологии.
Именно поэтому искусственный интеллект не будет в обозримом будущем допущен к управлению самолетами в автономном режиме. Авиация — отличный пример сферы, в которой требуется высокая точность в процессе принятия решений, поскольку риски слишком высоки. Борьба ответственностей ярко показана в фильме «Чудо на Гудзоне»: ставший легендарным пилот умудрился посадить самолет с отказавшими двигателям на воду без жертв, и впоследствии его обвиняли в том, что он поступил не по протоколу, так как математически были просчитаны альтернативные решения с посадкой в близлежащих аэропортах. Но в суде никому из экспертов и следователей этого авиапроисшествия не удалось найти все элементы формулы под названием «пилот в экстренной ситуации» для компьютерной симуляции. Посмотрите защитительную речь героя о том, что в реальной ситуации математических расчетов недостаточно: чтобы оценить все риски и возможности и принять оптимальное решение, на помощь приходят опыт, интуиция и вера.
ИИ может справиться со штатными ситуациями, и их подавляющее большинство. Но где ему учиться на чужих ошибках и искать идеальные сценарии и решения в чрезвычайных условиях, которые никогда не повторяются? Получается, что основное ограничение на доступ алгоритмов в системы управления получат те сферы, где требуется прозрачность процесса принятия решений и последующее объяснение своих действий.
К этим внутренним проблемам разработки теперь добавляется новое математическое ограничение: мы не можем предсказать заранее, с какими задачами ИИ справится, а с какими нет.
Политические проблемы использования ИИ
Помимо проблем самой разработки, стоит следить за применением ИИ, потому что в конечном счете в возможных перегибах будет виновата не сама технология, а те, кто стоит за ее использованием. В гонке за использование технологии разные участники преследуют разные цели — но, к сожалению, мало для кого цель — это подготовить ИИ и общество друг к другу. Вместо того чтобы бояться потерять работу, впору задуматься о том, что важно для всего человечества.
Только в прошлом году индустрия серьезно подошла к вопросам социальных эффектов и последствий внедрения ИИ. Отличилась Microsoft в попытке сформулировать вопросы о возможных сценариях будущего ИИ и о важных рекомендациях для его настоящего.
Даже если рано или поздно ИИ внедрится во многие сферы жизни человека, уже сейчас необходимо понимать, что технологии не решат все проблемы человечества и что мы сами должны думать о таких вещах, как этика или право.
Теперь комитеты по этике есть в Microsoft, Google, Facebook, SAP — это своеобразная внутренняя цензура потенциальных рисков ИИ.
Комитеты по этике подчеркивают, что технологии — дело рук и ответственность не только разработчиков, но и всех участников глобального взаимодействия, как конечных пользователей, так и институциональных игроков: бизнеса, государства, общества. Если кто-то из этих участников принимает решение использовать ИИ в своих целях, то он должен принять на себя обязательство предусматривать последствия. А если эти последствия не удается предсказать, требуется собирать как можно более междисциплинарные команды экспертов, которые покажут всю сложность тех или иных технических решений.
Звучит неплохо, но сейчас далеко не все участники гонки за лидерство в технологиях готовы оценивать реальные социальные эффекты своей деятельности, особенно если технологии поддерживают текущие политические режимы.
Фото из открытых источников
Если вы обнаружили ошибку или опечатку, выделите фрагмент текста с ошибкой и нажмите CTRL+Enter