Закрыть объявление

Сфере технологий угрожает ряд факторов. Пользователи опасаются, например, вредоносного ПО или потери конфиденциальности. Но, по мнению влиятельных деятелей технологической индустрии, нам следует беспокоиться не столько о самом человеческом факторе, сколько о его связи с искусственным интеллектом. На Всемирном экономическом форуме в Давосе в этом году руководители ряда крупных технологических компаний призвали к законодательному регулированию отрасли. Каковы их причины для этого?

«Искусственный интеллект — одна из самых глубоких вещей, над которыми мы, человечество, работаем. В нем больше глубины, чем в огне или электричестве». сказал генеральный директор Alphabet Inc. в прошлую среду на Всемирном экономическом форуме. Сундар Пичаи добавил, что регулирование искусственного интеллекта требует глобальной структуры обработки. Директор Microsoft Сатья Наделла и директор IBM Джинни Рометти также призывают к стандартизации правил использования искусственного интеллекта. По мнению Наделлы, сегодня, более тридцати лет назад, Соединенным Штатам, Китаю и Евросоюзу необходимо установить правила, определяющие важность искусственного интеллекта для нашего общества и для мира.

Попытки отдельных компаний установить собственные правила этики искусственного интеллекта в прошлом встречали протесты не только со стороны сотрудников этих компаний. Например, в 2018 году Google пришлось выйти из секретной правительственной программы Project Maven, которая использовала технологию для анализа изображений с военных дронов, после массовой негативной реакции. Стефан Хойманн из берлинского аналитического центра Stiftung Neue Verantwortung, говоря об этических спорах вокруг искусственного интеллекта, говорит, что правила должны устанавливать политические организации, а не сами компании.

Умная колонка Google Home использует искусственный интеллект

Нынешняя волна протестов против искусственного интеллекта имеет четкую причину такого выбора времени. Всего через несколько недель Европейский Союз должен изменить свои планы относительно соответствующего законодательства. Это может включать, например, правила, касающиеся развития искусственного интеллекта в так называемых секторах высокого риска, таких как здравоохранение или транспорт. Например, согласно новым правилам, компании должны будут документировать в рамках прозрачности, как они создают свои системы искусственного интеллекта.

В связи с искусственным интеллектом в прошлом уже было несколько скандалов — один из них, например, дело Cambridge Analytica. В компании Amazon сотрудники подслушивали пользователей через цифрового помощника Alexa, а летом прошлого года вновь разразился скандал из-за того, что компания Google — а точнее платформа YouTube — собирала данные детей несовершеннолетних. из тринадцати без согласия родителей.

Хотя некоторые компании молчат на эту тему, по заявлению ее вице-президента Николы Мендельсона, Facebook недавно установил свои собственные правила, аналогичные европейскому регламенту GDPR. Мендельсон заявил в своем заявлении, что это стало результатом стремления Facebook к глобальному регулированию. Кит Энрайт, отвечающий за конфиденциальность в Google, заявил на недавней конференции в Брюсселе, что компания в настоящее время ищет способы минимизировать объем пользовательских данных, которые необходимо собирать. «Но широко распространено утверждение, что такие компании, как наша, пытаются собрать как можно больше данных», Далее он заявил, добавив, что хранить данные, которые не приносят никакой пользы пользователям, рискованно.

Регуляторы, похоже, ни в коем случае не недооценивают защиту пользовательских данных. В настоящее время Соединенные Штаты работают над федеральным законодательством, аналогичным GDPR. Согласно им, компаниям придется получать согласие своих клиентов на предоставление своих данных третьим лицам.

Сири ФБ

Источник: Bloomberg

.