29.03.2023 [10:14], Руслан Авдеев на сайте 3dnews.ru:
Илон Маск (Elon Musk), Стив Возняк (Steve Wozniak), а также более 1000 других экспертов в области искусственного интеллекта и представителей IT-индустрии призвали ввести полугодовой мораторий на обучение ИИ-систем, более производительных, чем недавно представленная модель GPT-4 компании OpenAI. В открытом письме они предупредили о потенциальных рисках для общества.
Письмо опубликовано некоммерческим институтом Future of Life и подписано многими известными в IT-индустрии людьми. Все они призвали «поставить на паузу» разработку ИИ до того, как для отрасли будут разработаны общие протоколы и стандарты безопасности, применение которых будет проверяться независимыми аудиторами.
В письме подчёркивается, что мощные ИИ-системы должны разрабатываться только после того, как человечество будет уверено в позитивных последствиях такого развития и в том, что связанные с ними риски будут управляемыми. Также в письме упоминается о потенциальных угрозах для общества и цивилизации со стороны способных конкурировать с людьми ИИ-систем, что может привести к экономическим или политическим потрясениям. Разработчиков призывают тесно сотрудничать с регуляторами.
«Обширные исследования показали, что подобные системы с искусственным интеллектом, которые конкурируют с человеком, могут представлять серьезную опасность для всего человечества» — говорится в письме.
Письмо опубликовано после того, как к группе обеспокоенных развитием ИИ присоединился Европол, предупредивший о возможности злоупотребления злоумышленниками системами вроде ChatGPT — их можно использовать для фишинга, дезинформации и совершения киберпреступлений. Маск, чья компания Tesla довольно давно использует элементы искусственного интеллекта в своих системах автопилота, открыто и неоднократно выражал обеспокоенность опасностью ИИ-систем.
С момента релиза в прошлом году чат-бот ChatGPT компании OpenAI, поддерживаемой Microsoft, продемонстрировал такие качества, которые вынудили конкурентов срочно активизировать разработку собственных больших языковых моделей. В результате компании начали спешно интегрировать генеративный ИИ в свои продукты. Глава OpenAI Сэм Альтман (Sam Altman), по данным представителя Future of Life, письмо не подписывал, а в самой компании отказались от комментариев.
По словам одного из экспертов, необходимо замедлить соответствующие работы, пока человечество не начнёт лучше понимать последствия, поскольку ИИ-системы способны нанести серьёзный ущерб. Особенно с учётом того, что крупные игроки хранят в тайне информацию о том, над чем они работают — поэтому обществу будет трудно защититься в случае, если опасения оправдаются.
Источник:
Текст открытого письма:
Приостановить гигантские эксперименты с искусственным интеллектом: открытое письмо
Мы призываем все лаборатории ИИ немедленно приостановить как минимум на 6 месяцев обучение систем ИИ, более мощных, чем GPT-4.Системы искусственного интеллекта с интеллектом, конкурирующим с человеком, могут представлять серьезную опасность для общества и человечества, как показали обширные исследования[1] и признано ведущими лабораториями искусственного интеллекта[2]. Как указано в широко одобренных Принципах ИИ Asilomar, продвинутый ИИ может представлять собой глубокое изменение в истории жизни на Земле, и его следует планировать и управлять им с соразмерной тщательностью и ресурсами. К сожалению, такого уровня планирования и управления не существует, даже несмотря на то, что в последние месяцы лаборатории искусственного интеллекта застряли в неконтролируемой гонке по разработке и развертыванию все более мощных цифровых умов, которые никто — даже их создатели — не может понять. прогнозировать или надежно контролировать.
Современные системы искусственного интеллекта в настоящее время становятся конкурентоспособными в решении общих задач[3], и мы должны спросить себя: должны ли мы позволять машинам наводнять наши информационные каналы пропагандой и неправдой? Должны ли мы автоматизировать все рабочие места, в том числе выполняющие? Должны ли мы развивать нечеловеческие умы, которые в конечном итоге могут превзойти нас численностью, перехитрить, устаревать и заменить нас? Должны ли мы рисковать потерей контроля над нашей цивилизацией? Такие решения не должны делегироваться неизбранным лидерам технологий. Мощные системы искусственного интеллекта следует разрабатывать только тогда, когда мы уверены, что их эффекты будут положительными, а риски управляемыми. Эта уверенность должна быть хорошо обоснована и возрастать с величиной потенциальных эффектов системы. В недавнем заявлении OpenAI относительно общего искусственного интеллекта говорится, что «в какой-то момент может оказаться важным получить независимую оценку, прежде чем приступать к обучению будущих систем, и для самых передовых усилий согласиться ограничить скорость роста вычислений, используемых для создания новых». модели». Мы согласны. Этот момент сейчас.
Поэтому мы призываем все лаборатории ИИ немедленно приостановить как минимум на 6 месяцев обучение систем ИИ более мощных, чем GPT-4. Эта пауза должна быть общедоступной и поддающейся проверке, и в ней должны участвовать все ключевые участники. Если такую паузу нельзя ввести быстро, правительства должны вмешаться и ввести мораторий.
Лаборатории искусственного интеллекта и независимые эксперты должны использовать эту паузу для совместной разработки и внедрения набора общих протоколов безопасности для усовершенствованного проектирования и разработки искусственного интеллекта, которые тщательно проверяются и контролируются независимыми внешними экспертами. Эти протоколы должны гарантировать, что системы, придерживающиеся их, вне всяких разумных сомнений безопасны.[4] Это не означает паузу в развитии ИИ в целом, а просто шаг назад от опасной гонки к все более крупным непредсказуемым моделям черного ящика с появляющимися возможностями.
Исследования и разработки в области искусственного интеллекта должны быть переориентированы на то, чтобы сделать современные мощные современные системы более точными, безопасными, интерпретируемыми, прозрачными, надежными, согласованными, заслуживающими доверия и лояльными.
Параллельно разработчики ИИ должны работать с политиками, чтобы значительно ускорить разработку надежных систем управления ИИ. Они должны как минимум включать: новые и дееспособные регулирующие органы, занимающиеся вопросами ИИ; надзор и отслеживание высокопроизводительных систем искусственного интеллекта и больших пулов вычислительных мощностей; системы происхождения и водяных знаков, помогающие отличить настоящие от синтетических и отслеживать утечки моделей; надежная экосистема аудита и сертификации; ответственность за вред, причиненный ИИ; надежное государственное финансирование технических исследований безопасности ИИ; и хорошо обеспеченные ресурсами институты для преодоления серьезных экономических и политических потрясений (особенно демократии), которые вызовет ИИ.
Человечество может наслаждаться процветающим будущим с ИИ. Добившись успеха в создании мощных систем ИИ, мы теперь можем наслаждаться «летом ИИ», во время которого мы пожинаем плоды, разрабатываем эти системы на благо всех и даем обществу возможность адаптироваться. Общество приостановило использование других технологий с потенциально катастрофическими последствиями для общества.[5] Мы можем сделать это здесь. Наслаждаемся долгим летом с искусственным интеллектом, а не бросаемся в осень неподготовленными.
Мои посты о 4 промышленной революции и Обществе 5.0:
Мир будущего глазами японцев. Общество 5.0
Төрдүс промышленнай революция уонна эдэр ыччат
Японский план «Общество 5.0», беспилотные автобусы и ПДД для летающих машин
Немного о строительстве домов в Японии
Обсуждение вопросов Общества 5.0
Заводы Зеленых Растений: командировка в Японию!
Заводы зеленых растений в Японии и в России
«Цифровая экономика (модели и прогнозы)»
Демографическая динамика с древнейших времен и будущее человечества
«Ленские встречи»: Навстречу 4-й промышленной революции!
Острова инноваций: почему России стоит готовиться к деглобализации
РЛИ-га ПРОФОРИЕНТАЦИОННАЙ КӨРСҮҺҮҮ
Генератор слов загипнотизировал миллионы
Виталий Обедин и Егор Давыдов об искусственном интеллекте и прогноз — предупреждение Аскара Акаева!
Недостающая деталь пазла: как ChatGPT может улучшить экономику брокеров
Встреча с учащимися Техтюрской средней общеобразовательной школы им. А.Д. Широких
История создания и новости об искусственном интеллекте ChatGPT 4.0
Мой сайт: https://nikbara.ru/ — блог о разных интересных событиях
Сайт об усадебном хозяйстве в Якутии https://usadbaykt.ru/
Мой канал в «Яндекс Дзен» — NikBara
Мой блог в “Блогах Якутии” https://blogi.nlrs.ru/author/88287 — архив моих постов в Дневниках Якт.ру и новые посты о культурных событиях.
Просьба подписаться на мой канал «Николай Барамыгин» на Ютуб!
И на мои аккаунты в социальных сетях!
«Одноклассниках» https://ok.ru/profile/500676253992
«В контакте» https://vk.com/nbaramygin
Мой канал в «Телеграм» https://t.me/nikbaraykt