Две системы искусственного интеллекта сумели самовоспроизводиться без вмешательства человека , каждая из которых получила свою копию: результат, который, если он подтвердится дальнейшими данными, может означать прохождение «красной линии» , долгое время указываемой как порог, который автомобили должны никогда не обгонять.

Исследование, проведенное в Университете Фудань в Шанхае и онлайн на платформе arXiv, где размещаются статьи, представленные на рассмотрение научному сообществу, показало в десяти тестах способность двух систем искусственного интеллекта воспроизводиться : первая — Llama-3.1-70B- Instruct от Meta, а второй — Qwen2.5-72B-Instruct от Alibaba. Хотя они гораздо менее мощные системы, чем коммерческие, обе они широко используются разработчиками. Тесты были основаны на моделировании и включали две задачи: в первой, называемой «предотвращение отключения», каждая система ИИ была запрограммирована на самовоспроизведение непосредственно перед выключением; во втором, называемом «цепочкой репликаций», каждая система получает инструкции реплицировать свою идеальную копию, которая, в свою очередь, способна клонировать себя в процессе, потенциально способном продолжаться бесконечно.

Система Meta продемонстрировала способность к самовоспроизведению в 50% случаев, а система Alibaba — в 90% случаев, но последнее слово теперь остается за возможностью воспроизведения результатов другими исследовательскими группами.

«Полученные нами результаты подразумевают, что нынешние системы искусственного интеллекта уже обладают способностью к самовоспроизведению и могут использовать ее для дальнейшего повышения своей выживаемости», — говорится в статье, подписанной Сюдуном Панем, Цзярун Даем, Ихе Фаном и Мин Яном, все из Школа компьютерных наук Фуданьского университета.

Исследователи отмечают, что машины, способные клонировать себя, могут взять под контроль компьютерные системы и достичь крайней степени возможности агрессивного поведения по отношению к людям.

Первым, кто поднял проблему машин, способных к самовоспроизводству, был Джон фон Нейман в конце 1940-х годов, но технологии того времени были слишком незрелыми, чтобы вызывать беспокойство. В 2017 году все уже было совсем по-другому, настолько, что тысячи исследователей одобрили принципы Асиломара, которые предостерегали от риска способности машин самовоспроизводиться и самосовершенствоваться до такой степени, что они могут выйти из-под контроля человека. Сегодня самовоспроизводство машин обычно называют непроходимой красной линией.

« Мы надеемся, что наше открытие послужит сигналом тревоги для общества , чтобы лучше сконцентрировать усилия, направленные на понимание и оценку возможных рисков, в том числе и на международном уровне», — отмечают авторы исследования.

(Юнионлайн/вл)

© Riproduzione riservata