«Говорим ли мы о Терминаторе, который приходит взрывать нас на куски, или о сумасшедших ученых, пытающихся создать извращенных женщин-роботов, все эти рассказы по какой-то причине стали преобладать в общественном сознании, и это для нас весьма удивительно», — говорит Мустафа Сулейман (Mustafa Suleyman), возглавляющий прикладные исследования в лондонской компании искусственного разума Google DeepMind, которую он учредил и которую в прошлом году за 400 миллионов долларов продал Google.
«Теперь тема дискуссий изменилась. Если раньше все говорили о том, как это ужасно, что искусственный интеллект не удается создать, то теперь ужасно то, что в создании такого интеллекта наметились успехи», — заявил Сулейман, выступая в прошлую пятницу на семинаре по машинному обучению.
DeepMind обрела известность в прошлом году, когда опубликовала в журнале Nature статью о том, как можно запрограммировать компьютер, чтобы он научился играть в игры Atari лучше, чем большинство людей. После долгих лет надежд и разочарований DeepMind осуществила прорыв в непонятной когда-то области искусственного разума: указав на то, что вместо обучения машины каждой игре в отдельности, ее можно настроить так, чтобы она переносила полученные в предыдущей игре знания на последующие игры.
Это мощное достижение, которое Сулейман называет одним из самых значительных прорывов в сфере искусственного интеллекта за многие годы, возродило обеспокоенность по поводу потенциальных опасностей, таящихся в машинном разуме. За последний год тревогу относительно возможного вреда искусственного интеллекта для человечества били такие люди, как астрофизик Стивен Хокинг, глава Microsoft Билл Гейтс и Элон Маск из компании Tesla, который на начальном этапе вложил инвестиции в DeepMind.
«Что касается угрозы существованию человечества, то на наш взгляд, это отвлекает людей от вопросов этики и безопасности, а также занимает главное место в дебатах, — говорит Сулейман. — Мы думаем про искусственный интеллект то, что он станет мощнейшим инструментом, который мы контролируем, которым мы управляем, возможности которого мы ограничиваем, как это бывает с любым другим инструментом и орудием в окружающем нас мире, будь то стиральные машины или тракторы. Мы создаем их для того, чтобы дать человечеству новые возможности, а не для того, чтобы они нас уничтожили».
Сегодня в лаборатории компании Google DeepMind возле Кингс Кросс в Лондоне трудятся примерно 140 исследователей со всего мира. Google широко использует машинное обучение в таких областях, как поиск изображений, робототехника, биотехнологии, а также в своей экспериментальной лаборатории Google Х. Например, в прошлом году компания представила новую функцию в фотографии, позволяющую пользователям искать свои снимки по тексту, используя ключевые слова типа «кровати», «дети», «отпуск», даже если они не давали этим фотографиям такие названия.
Такого рода достижения, как и потенциальные возможности для решения действительно крупных проблем, стоящих перед человечеством, например, продовольственная безопасность, глобальное потепление и неравенство в доходах, отходят на второй план под напором панических разглагольствований о той угрозе, которую таит для человечества искусственный разум.
«Мысль о том, что теперь нам надо вести разговор о совести и правах роботов, в равной степени кажется абсурдной», — говорит Сулейман.
Вместе с тем, он вполне серьезно относится к вопросам, которые скрываются за показной мишурой сенсационности. DeepMind в качестве условия своего поглощения Google потребовала создания совета по этике и безопасности. Google также не может использовать результаты работы DeepMind в сфере искусственного интеллекта в военных и разведывательных целях.
Но с момента поглощения прошло больше года, а Google пока так и не обнародовал никакой информации о создании такого совета по этике и безопасности, хотя и средства массовой информации, и ученое сообщество неоднократно выступали с запросами на сей счет. Более того, Google в прошлом году создал экспертную группу, которая дает рекомендации в дебатах на тему европейского «права быть забытым». Эта консультативная группа работает публично, а ее заседания открыты для посещений. Состоит она из ученых и специалистов по интернету, но возглавляют ее председатель Google Эрик Шмидт и директор по юридическим вопросам Дэвид Драммонд.
Сулейман не стал комментировать состав совета по этике искусственного интеллекта, порядок отбора его членов, механизмы его работы и полномочия. По его словам, Google создает команду из ученых, экономистов, философов и юристов для решения этических вопросов, но в настоящее время ими занимаются лишь три или четыре человека. Он добавил, что компания хочет нанять экспертов по политике, этике и праву.
«Мы объявим о нем в свое время», — сказал Сулейман. Пресс-секретарь Google в понедельник также отказалась дать какие-либо официальные комментарии относительно совета по этике.
Отвечая на вопрос о том, почему компания держит в тайне состав совета по этике искусственного интеллекта вопреки требованиям о прозрачности и осторожности, Сулейман сказал: «Я говорил об этом Ларри [Ларри Пейдж, соучредитель Google]. Я полностью согласен. По сути дела, мы остаемся корпорацией, и мне кажется, об этом стоит задуматься всем. Мы понимаем, что все это очень сложно, но у нас нет намерения делать это келейно или в вакууме».
Оригинал публикации: Google on Artificial-Intelligence Panic: Get a Grip
«Говорим ли мы о Терминаторе, который приходит взрывать нас на куски, или о сумасшедших ученых, пытающихся создать извращенных женщин-роботов, все эти рассказы по какой-то причине стали преобладать в общественном сознании, и это для нас весьма удивительно», — говорит Мустафа Сулейман (Mustafa Suleyman), возглавляющий прикладные исследования в лондонской компании искусственного разума Google DeepMind, которую он учредил и которую в прошлом году за 400 миллионов долларов продал Google.
«Теперь тема дискуссий изменилась. Если раньше все говорили о том, как это ужасно, что искусственный интеллект не удается создать, то теперь ужасно то, что в создании такого интеллекта наметились успехи», — заявил Сулейман, выступая в прошлую пятницу на семинаре по машинному обучению.
DeepMind обрела известность в прошлом году, когда опубликовала в журнале Nature статью о том, как можно запрограммировать компьютер, чтобы он научился играть в игры Atari лучше, чем большинство людей. После долгих лет надежд и разочарований DeepMind осуществила прорыв в непонятной когда-то области искусственного разума: указав на то, что вместо обучения машины каждой игре в отдельности, ее можно настроить так, чтобы она переносила полученные в предыдущей игре знания на последующие игры.
Это мощное достижение, которое Сулейман называет одним из самых значительных прорывов в сфере искусственного интеллекта за многие годы, возродило обеспокоенность по поводу потенциальных опасностей, таящихся в машинном разуме. За последний год тревогу относительно возможного вреда искусственного интеллекта для человечества били такие люди, как астрофизик Стивен Хокинг, глава Microsoft Билл Гейтс и Элон Маск из компании Tesla, который на начальном этапе вложил инвестиции в DeepMind.
«Что касается угрозы существованию человечества, то на наш взгляд, это отвлекает людей от вопросов этики и безопасности, а также занимает главное место в дебатах, — говорит Сулейман. — Мы думаем про искусственный интеллект то, что он станет мощнейшим инструментом, который мы контролируем, которым мы управляем, возможности которого мы ограничиваем, как это бывает с любым другим инструментом и орудием в окружающем нас мире, будь то стиральные машины или тракторы. Мы создаем их для того, чтобы дать человечеству новые возможности, а не для того, чтобы они нас уничтожили».
Сегодня в лаборатории компании Google DeepMind возле Кингс Кросс в Лондоне трудятся примерно 140 исследователей со всего мира. Google широко использует машинное обучение в таких областях, как поиск изображений, робототехника, биотехнологии, а также в своей экспериментальной лаборатории Google Х. Например, в прошлом году компания представила новую функцию в фотографии, позволяющую пользователям искать свои снимки по тексту, используя ключевые слова типа «кровати», «дети», «отпуск», даже если они не давали этим фотографиям такие названия.
Такого рода достижения, как и потенциальные возможности для решения действительно крупных проблем, стоящих перед человечеством, например, продовольственная безопасность, глобальное потепление и неравенство в доходах, отходят на второй план под напором панических разглагольствований о той угрозе, которую таит для человечества искусственный разум.
«Мысль о том, что теперь нам надо вести разговор о совести и правах роботов, в равной степени кажется абсурдной», — говорит Сулейман.
Вместе с тем, он вполне серьезно относится к вопросам, которые скрываются за показной мишурой сенсационности. DeepMind в качестве условия своего поглощения Google потребовала создания совета по этике и безопасности. Google также не может использовать результаты работы DeepMind в сфере искусственного интеллекта в военных и разведывательных целях.
Но с момента поглощения прошло больше года, а Google пока так и не обнародовал никакой информации о создании такого совета по этике и безопасности, хотя и средства массовой информации, и ученое сообщество неоднократно выступали с запросами на сей счет. Более того, Google в прошлом году создал экспертную группу, которая дает рекомендации в дебатах на тему европейского «права быть забытым». Эта консультативная группа работает публично, а ее заседания открыты для посещений. Состоит она из ученых и специалистов по интернету, но возглавляют ее председатель Google Эрик Шмидт и директор по юридическим вопросам Дэвид Драммонд.
Сулейман не стал комментировать состав совета по этике искусственного интеллекта, порядок отбора его членов, механизмы его работы и полномочия. По его словам, Google создает команду из ученых, экономистов, философов и юристов для решения этических вопросов, но в настоящее время ими занимаются лишь три или четыре человека. Он добавил, что компания хочет нанять экспертов по политике, этике и праву.
«Мы объявим о нем в свое время», — сказал Сулейман. Пресс-секретарь Google в понедельник также отказалась дать какие-либо официальные комментарии относительно совета по этике.
Отвечая на вопрос о том, почему компания держит в тайне состав совета по этике искусственного интеллекта вопреки требованиям о прозрачности и осторожности, Сулейман сказал: «Я говорил об этом Ларри [Ларри Пейдж, соучредитель Google]. Я полностью согласен. По сути дела, мы остаемся корпорацией, и мне кажется, об этом стоит задуматься всем. Мы понимаем, что все это очень сложно, но у нас нет намерения делать это келейно или в вакууме».
Комментариев нет:
Отправить комментарий