Десятки протестующих собрались возле офиса OpenAI в понедельник вечером, когда сотрудники уходили с работы, выступая против разработки компанией искусственного интеллекта.

Демонстрацию организовали две группы — ИИ Пауза и Нет ОИИ — которые открыто умоляли инженеров OpenAI прекратить работу над продвинутыми системами искусственного интеллекта, такими как чат-бот ChatGPT.

Послание коллектива было ясным с самого начала: остановить развитие искусственного интеллекта, которое может привести к будущему, в котором машины превзойдут человеческий интеллект, известный как общий искусственный интеллект (AGI), и воздерживаться от какой-либо дальнейшей военной деятельности.

Мероприятие было организовано частично в ответ на OpenAI из своей политики использования в прошлом месяце, запрещающей использование ИИ в военных целях. Через несколько дней после изменения политики использования стало известно, что OpenAI взяла на себя Пентагон как клиента.

Событие в Нью-Йорке c OpenAI

29 февраля мы будем в Нью-Йорке в сотрудничестве с Microsoft, чтобы обсудить, как сбалансировать риски и выгоды от приложений ИИ. Запросите приглашение на эксклюзивное мероприятие ниже.

“На February 12 «Мы потребуем, чтобы OpenAI прекратила отношения с Пентагоном и не принимала никаких военных клиентов», — заявил «Если их этические границы и границы безопасности могут быть пересмотрены ради удобства, им нельзя доверять».

«Цель No AGI — распространить информацию о том, что нам вообще не следует создавать AGI», — сказал Сэм Кирченер, глава No AGI. «Вместо этого нам следует обратить внимание на такие вещи, как эмуляция всего мозга, которая позволяет человеческому мышлению оставаться на переднем крае интеллекта».

Сэм Кирченер (слева), основатель политической группы No AGI, и Холли Элмор (справа), организатор протеста от Pause AI, стоят перед офисом OpenAI в Сан-Франциско, чтобы потребовать остановить разработку общего искусственного интеллекта.

Холли Элмор, ведущий организатор Pause AI (США), рассказала, что ее группа хочет «глобальную, неопределенную паузу в передовом развитии AGI, пока это не станет безопасным». Она добавила: «Я была бы очень рада, если бы они разорвали отношения с военными. Кажется, это действительно важная граница».

Растущее недоверие к развитию ИИ

Протест пришелся на критический момент общественного дискурса об этических последствиях ИИ. Решение OpenAI внести поправки в свою политику использования и сотрудничать с Пентагоном вызвало дебаты о милитаризации ИИ и ее потенциальных последствиях.

Опасения протестующих в первую очередь коренятся в концепции AGI — интеллекта, который может выполнять любые интеллектуальные задачи, доступные человеку, но с потенциально непостижимой скоростью и масштабом. Беспокойство вызывает не только потеря рабочих мест или автономность ведения войны; речь идет о фундаментальном изменении динамики власти и процесса принятия решений в обществе.

«Если мы создадим AGI, существует риск того, что в мире после AGI мы потеряем много смысла из-за того, что называется психологической угрозой, когда AGI делает все для всех. Людям не будут нужны рабочие места. И в нашем нынешнем обществе люди извлекают из своей работы много смысла», — сказал Кирченер.

«Этим компаниям недостаточно самоуправления, действительно необходимо внешнее регулирование», — добавил Элмор, подчеркнув, как часто OpenAI отказывается от данных обещаний. «В июне Сэм Альтман хвастался, что правление может его уволить, а в ноябре они не смогли его уволить. Теперь мы видим то же самое с политикой использования. [and military contract]… Какой смысл в этой политике, если она фактически не ограничивает OpenAI в том, что она хочет делать?»

И «Пауза ИИ», и «Нет AGI» имеют общую цель — остановить AGI, но их методы расходятся. Pause AI открыт для идеи AGI, если его можно будет разработать безопасно, тогда как No AGI решительно выступает против его создания, подчеркивая потенциальные психологические угрозы и потерю смысла в человеческой жизни.

Обе группы заявляют, что это, скорее всего, не будет их последним протестом.

Другие, обеспокоенные риском ИИ, могут принять участие через их сайты и социальные медиа. Но на данный момент Кремниевая долина движется вперед, навстречу неизвестному будущему ИИ.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

error: Content is protected !!