Авторские материалы Google отказался не вредить
Персоны
Американская корпорация Google отказалась от своего обещания не использовать искусственный интеллект для создания оружия. Ранее среди принципов деятельности компании имелся абзац, в котором утверждалось, что она не будет развивать технологии, которые наносят или могут нанести общий вред, включая оружие. Теперь это обещание исчезло из опубликованных на сайте Google принципов искусственного интеллекта. Рассказывает наш европейский корреспондент Александр Зуев.
Google наряду с другими компаниями и стартапами, занимающимися технологиями, связанными с искусственным интеллектом, до последнего времени заявлял, что его разработки не будут применяться для создания оружия. После того, как абзац с этим обещанием исчез из списка принципов корпорации, остается предположить, что концепция изменилась.
По мнению Маргарет Митчелл, которая в прошлом была одним руководителей команды Google по этике при разработке искусственного интеллекта, «это означает, что Google теперь, вероятно, будет работать над прямым внедрением технологий, которые могут убивать людей».
Старший вице-президент Google Джеймс Манийка и глава лаборатории Google по разработке ИИ DeepMind Демис Хассабис, оправдывая такое решение, сослались на то, что, по их мнению, демократии должны лидировать в разработке ИИ, но «руководствуясь основными ценностями, такими, как свобода, равенство и уважение прав человека».
При этом, судя по всему, Google и раньше не до конца придерживался заявленного принципа «не навреди». Так, в апреле прошлого года корпорация уволила 28 сотрудников, устроивших продолжительную сидячую забастовку в знак протеста против контракта, предоставившего набор технологий искусственного интеллекта израильский армии.
Одна из причин, по которым корпорация решила изменить своим принципам, возможно, связана с финансовыми проблемами холдинговой компании Alfabet, управляющей Google. Рост ее выручки в IV квартале прошлого года оказался худшим с 2023 года, в том числе из-за замедления темпа роста выручки подразделения Google, занимающегося разработкой продуктов на базе искусственного интеллекта.
По общему мнению, наибольшую опасность искусственный интеллект представляет в области принятия решений о применении ядерного оружия. При этом общие договоренности ядерной «пятерки» о том, что столь ответственные решения должны оставаться за человеком, пока не достигнуты.