Connect with us

Hi, what are you looking for?

Наука и технологии

Илон Маск, Стив Возняк и более 1 000 человек требуют приостановить эксперименты с ИИ

Илон Маск, Стив Возняк и более 1 000 человек требуют приостановить эксперименты с ИИ
Илон Маск, Стив Возняк и более 1 000 человек требуют приостановить эксперименты с ИИ

Системы ИИ, конкурирующие с человеческим интеллектом, могут представлять серьезные риски для общества и человечества, напоминает Институт будущей жизни (The Future of Life Institute), члены которого написали открытое письмо с требованием приостановить эксперименты с искусственным интеллектом. Среди них Илон Маск, Стив Возняк и еще более 1000 человек.

Как отмечено в принципах ИИ, озвученных на конференции Asilomar в 2017 году, продвинутый искусственный интеллект может повлечь за собой глубокие изменения в истории жизни на Земле, и его следует планировать и управлять им с надлежащим усердием и выделением соответствующих ресурсов.

«Современные системы искусственного интеллекта становятся конкурентоспособными с человеком в выполнении общих задач, и мы должны спросить себя: «Должны ли мы позволить машинам заполонить наши информационные каналы пропагандой и ложью? Должны ли мы автоматизировать всю работу, в том числе и полезную? Должны ли мы развивать бесчеловечный разум, который со временем может превзойти нас, перехитрить и заменить нас? Следует ли рисковать потерей контроля над нашей цивилизацией? Такие решения нельзя делегировать неизбранным технологическим лидерам. Мощные системы искусственного интеллекта следует разрабатывать только тогда, когда мы будем уверены, что их последствия будут положительными, а риски управляемыми. Эта уверенность должна быть хорошо обоснована и расти с увеличением масштабов потенциальных эффектов системы», – отмечают авторы письма.

В недавнем заявлении OpenAI относительно искусственного всеобщего интеллекта говорится, что «в определенный момент может оказаться важным получить независимую оценку перед началом обучения будущих систем, а для наиболее продвинутых усилий – договориться об ограничении темпов роста вычислений, используемых для создания новых моделей». Этот момент наступил, утверждают в письме члены Института и призывают все ИИ-лаборатории «немедленно приостановить минимум на 6 месяцев обучение ИИ-систем, мощнее GPT-4».

Лабораториям ИИ и независимым экспертам авторы письма советуют использовать эту паузу для совместной разработки и внедрения набора общих протоколов безопасности для передового проектирования и разработки ИИ, которые будут тщательно проверяться и контролироваться независимыми внешними экспертами.

Эти протоколы должны гарантировать, что соблюдаемые их системы являются безопасными.

«Исследования и разработка ИИ должны быть переориентированы на то, чтобы сделать сегодняшние мощные, современные системы более точными, безопасными, интерпретированными, прозрачными, надежными, выверенными, надежными и лояльными».

Параллельно разработчики ИИ должны сотрудничать с политиками, чтобы значительно ускорить разработку надежных систем управления ИИ. Они должны, как минимум, включать:

  • новые и эффективные регуляторные органы, занимающиеся вопросами ИИ;
  • надзор и отслеживание высокопроизводительных систем ИИ и больших пулов вычислительных мощностей;
  • системы проверки происхождения и водяных знаков, которые помогут отличить настоящий ИИ от синтетического и отслеживать источники моделей;
  • надежную экосистему аудита и сертификации;
  • ответственность за вред, причиненный ИИ;
  • мощное государственное финансирование технических исследований по безопасности ИИ;
  • а также хорошо обеспеченные ресурсами институты, способные справиться с серьезными экономическими и политическими последствиями, к которым приведет развитие ИИ.

«Человечество может наслаждаться преуспевающим будущим с искусственным интеллектом. Достигнув успеха в создании мощных систем искусственного интеллекта, мы можем наслаждаться «летом искусственного интеллекта», в котором мы пожинаем плоды, разрабатываем эти системы в общую пользу и даем обществу шанс адаптироваться».

В тренде