Домой / Android / Год скандалов в сфере технологий: как нам обуздать искусственный интеллект?

Год скандалов в сфере технологий: как нам обуздать искусственный интеллект?

Twitter

Google+

По материалам AI Now Institute

Год скандалов в сфере технологий: как нам обуздать искусственный интеллект?

Институт искусственного интеллекта (AI Now Institute), созданный на базе Нью-Йоркского университета, опубликовал третий ежегодный доклад о состоянии развития искусственного интеллекта в 2018 году. В него входят и десять положений, представляющих собой рекомендации для правительств, исследователей и всех, кто связан с этой индустрией.

2018 год оказался очень драматичным для ИИ – начиная от предполагаемого влияния Facebook на этнические чистки в Мьянме и «попыток манипулирования» выборами со стороны Cambridge Analytica, создания в Google секретного и подверженного цензуре поискового механизма для Китая и до того, какой гнев вызвали у сотрудников Microsoft ее контракты с миграционной службой США, разлучавшей семьи мигрантов. Огромное количество громких заголовков, а поводы, перечисленные выше, – это всего лишь несколько примеров среди сотен им подобных.

В основе этих лавинообразно обрушившихся на общество скандалов, связанных с ИИ, лежит вопрос ответственности: кто будет виноват, если нам нанесут вред системы, основанные на искусственном интеллекте? Как мы будем оценивать этот вред и как устранять его последствия? Где мы должны вмешаться и какие дополнительные исследования мы должны провести, чтобы быть уверенными в эффективности этого вмешательства? Пока что на эти вопросы очень мало ответов. А существующие механизмы регулирования очень слабы в сравнении с тем, что требуется в этой сфере. По мере того, как растут проникновение, сложность и масштаб этих систем, все большее беспокойство вызывает отсутствие ответственности и надзора, включая соответствующие правовые процедуры.

Итак, основываясь на предшествующих докладах 2016 и 2017 гг., Институт искусственного интеллекта подготовил свой доклад 2018 года, где эти проблемы заняли центральное место. В нем приводится ряд практических рекомендаций, призванных помочь разработать принципы управления этими мощными технологиями.

Вот эти рекомендации.

1. Правительства должны заниматься регулированием в сфере ИИ посредством расширения полномочий соответствующих агентств и предоставления им возможности по надзору и мониторингу этих технологий по областям применения.

Внедрение систем на основе ИИ происходит быстро, без адекватного управления, надзора и ответственности. Такие сферы, как здравоохранение, образование, уголовное право и благосостояние, обладают своей собственной историей, законодательными рамками и связаны с конкретными рисками.  Общие национальные стандарты и модели сертификации непременно должны получить более тщательную отраслевую спецификацию для более детального регулирования. Нам требуется специфический подход, который ставит во главу угла не саму технологию, а ее применение в конкретной области. Удачным примером такого подхода могут служить Федеральное авиационное управление США и Национальное управление безопасностью движения на трассах.

2. Распознавание по лицу и распознавание эмоций нуждаются в строгом регулировании для защиты общественных интересов.

Такое регулирование должно включать в себя законы национального уровня, предполагающие строгий надзор, четкие ограничения и ясность для общества. Люди должны иметь право отказаться от внедрения этих технологий как в общественной, так и в частной сфере.  Простого публичного уведомления об их использовании недостаточно. Порог любого согласия должен быть высоким, учитывая опасности, которые кроет в себе постоянное и всеобщее наблюдение. Особенного внимания требует распознавание эмоций. Это разновидность распознавания лица, которая призвана определять такие вещи, как индивидуальность, чувства, психическое здоровье и «вовлеченность» сотрудников на основе изображений или видео. Такие возможности не подкрепляются всесторонним научным исследованием и применяются безответственно и неэтично, что часто напоминает о псевдонауках, таких как френология и физиогномия. И если распознавание эмоций будет применяться при найме, страховании, в образовании и полиции, это создаст очень серьезные риски на личном и общественном уровне.

3. Индустрия искусственного интеллекта нуждается в срочной разработке новых подходов к управлению.

Как показано в докладе, внутренние структуры управления в большинстве технологических компаний не в состоянии обеспечить ответственность за применение систем на основе ИИ. Правительственное регулирование – это важная составляющая, однако компании-лидеры индустрии ИИ также нуждаются во внутренних механизмах ответственности, которые выходят за пределы простых этических норм. Они должны включать в себя представление рядовых сотрудников на совете директоров, внешние советы по этическим вопросам, а также проведение независимого мониторинга и применение мер по повышению прозрачности. Сторонние эксперты должны иметь возможность проводить проверки и публиковать информацию о важнейших системах, а компании должны быть уверены, что их инфраструктура, связанная с ИИ, понятна и прозрачна, в том числе и то, как внедряется и применяется ИИ.

4. Компании, работающие с искусственным интеллектом, должны отказаться от сохранения коммерческой тайны и других юридических требований, которые делают невозможной подотчетность в государственном секторе.

Вендоры и разработчики, создающие ИИ и системы, основанные на автоматическом принятии решений, для использования правительством, должны согласиться на отказ от коммерческой тайны и других юридических требований, которые могут мешать полной проверке и пониманию их ПО. Корпоративные правила секретности – это препятствие для правовых гарантий, они способствуют появлению «эффекта черного ящика», создавая непроницаемые и не предполагающие ответственности системы. Это делает сложной оценку степени предвзятости, оспаривание решений и исправление ошибок.  Каждый, кто создает технологии с целью применения в государственном секторе, должен требовать от вендоров отказа от этих требований, прежде чем заключать какие-то соглашения.

5. Технологические компании должны предоставить защиту отказникам по соображениям совести, организациям сотрудников, а также информаторам в сфере этики.

Самоорганизация и сопротивление со стороны работников сферы технологий выступили в качестве силы, ратующей за ответственность и принятие этичных решений. Нужно, чтобы технологические компании защищали право сотрудников организовываться, выступать с разоблачениями и принимать решения на основе этических соображений.  А это означает четкую политику и защиту отказников по соображениям совести, право работников знать, над чем они работают, и возможность уклониться от этой работы без последующего наказания. Сотрудники, поднимающие этические вопросы, также должны находиться под защитой, как и те, кто выступает с разоблачениями в интересах общества.

6. Организации по защите прав потребителей должны применять законы о добросовестности рекламы к продуктам и сервисам, связанным с искусственным интеллектом.

Из-за того, что ажиотаж вокруг ИИ неуклонно растет, разрыв между маркетинговыми обещаниями и реальными свойствами продуктов только увеличивается. И это повышает риски как для частных покупателей, так и для бизнес-клиентов, часто с фатальными последствиями. Как и в случае с другими продуктами и сервисами, обладающими потенциалом для серьезного влияния или использования людей в собственных целях, те, кто продает ИИ, должны придерживаться высоких стандартов и соответствовать своим обещаниям, в особенности когда для выполнения этих обещаний не хватает соответствующей научной базы и последствия в далекой перспективе непонятны.

7. Технологические компании должны взять на себя обязательство разбираться со случаями дискриминации на рабочих местах

Технологические компании и искусственный интеллект в целом – это сфера, в которой стараются обучать и нанимать как можно больше разных сотрудников. И несмотря на то, что это важно, есть риск упустить из внимания случаи, когда люди подвергаются дискриминации. Компаниям следует разбираться с подобными проблемами на рабочих местах, а также изучать связь между культурами отчуждения и продуктами, которые они создают и которые могут только закреплять практику дискриминации. Такая смена фокуса должна сопровождаться и практическими действиями в сфере найма.

8. Честность, ответственность и прозрачность в области искусственного интеллекта требуют полного представления обо всей «цепочке поставок».

Для того, чтобы нести осмысленную ответственность, мы должны иметь возможность лучше понимать и отслеживать составные части системы ИИ и «полной цепочки поставок», на которой она основана. Это означает происхождение и использование данных для обучения, тестовых данных, модели, API и другие инфраструктурные компоненты жизненного цикла продукта. Мы называем это «контролем над полной цепочкой поставок» систем ИИ, и это необходимое условие для возможности проведения более ответственных проверок.  «Полная цепочка поставок» означает также и реальные экологические и трудовые затраты, которые включают в себя использование энергии, трудовых ресурсов развивающихся стран для получения обучающих данных и работы кликворкеров для поддержания и развития систем ИИ.

9. Требуется увеличение финансирования для судебных разбирательств, организации труда и участия сообществ в вопросах ответственности искусственного интеллекта

Те люди, которые больше всего подвержены риску получения вреда от систем, основанных на ИИ, одновременно зачастую хуже всего могут противостоять последствиям. Мы нуждаемся в росте поддержки механизмов правовой защиты и гражданского участия. Это означает поддержку общественных адвокатов, представляющих интересы тех, кто оказался отрезан от социальной помощи, пострадав от алгоритмических решений, поддержку гражданских организаций и профсоюзов, защищающих интересы групп, подверженных риску потери работы и эксплуатации, а также поддержание инфраструктуры, обеспечивающей участие общественности.

10. Изучение искусственного интеллекта в университетах не должно ограничиваться только компьютерными и инженерными дисциплинами

ИИ начинался как междисциплинарное явление, но за десятилетия превратился в техническую дисциплину. И поскольку ИИ все больше применяется в социальной сфере, требуется расширить спектр дисциплин, которые он затрагивает, то есть почерпнуть методы экспертизы из социальных и гуманитарных наук. Изначально ИИ планировался для применения в обществе, и он не может ограничиваться рамками компьютерной и инженерной сферы, не давая студентам возможности учиться исследовать общественную жизнь. Расширение дисциплинарного спектра при изучении ИИ обеспечит более пристальное внимание к социальному контексту и позволит сфокусироваться на потенциальных угрозах применения систем ИИ в человеческом обществе.

Конечно, будучи официальным докладом, подобный свод рекомендаций просто обречен быть, с одной стороны, слишком канцелярским, а с другой – слишком оторванным от реальности. Как красиво звучат пункты о борьбе с дискриминацией (впрочем, носящие явный отпечаток местной, американской специфики) или о том, что компании должны предоставлять важную информацию буквально всем желающим, – красиво и совершенно нереалистично. И, тем не менее, многое здесь заставляет задуматься. Законодательное регулирование, как и всегда, не успевает за прогрессом в области технологий, и в будущем это может привести к гораздо большим проблемам, чем можно предположить сейчас.

Возможно, вы видите какие-то пути решения обозначенных проблем? Или добавили бы свои пункты в этот список? Какие из них вам кажутся важными, а какие надуманными? Делитесь в комментариях!

источник

Проверьте также

Странные события недели: почему секс и наркотики – это плохо?

Twitter Google+ На неделе произошло несколько событий с разными людьми, в разных компаниях, не связанных ...

Добавить комментарий