Каждый раз, когда человек изобретает что-то новое, есть те, кто научился этому не доверять, и те, кто вместо этого научился этим овладевать. Потому что, как говорит Франческа Лагиоя, один из ведущих экспертов по искусственному интеллекту в Европе, рядом с темной стороной всегда есть светлая сторона силы.

Гость фестиваля идей Pazza, организованного в Кальяри в последние дни ассоциацией Луны Скарлатта, Ладжойя — профессор юридической информатики, искусственного интеллекта, а также права и этики ИИ в Болонском университете. Вместе с Мафе Де Баггис, экспертом по цифровым медиа, он рассказал о важнейших проблемах и возможностях, которые приносит с собой искусственный интеллект, одна из самых прорывных технологических инноваций последних лет.

Человек начал свою историю с одомашнивания растений и животных. Придет ли теперь очередь машин обучать людей?

Надеюсь нет. До сих пор системы искусственного интеллекта использовались для максимизации прибыли крупных компаний и оптимизации некоторых процессов. Теперь вопрос в том, для каких целей мы хотим их использовать. Их использование поднимает ряд вопросов социального, этического и политического характера. Именно люди должны еще раз указать направление исследований.

Критическая проблема касается стереотипов, увековеченных системами искусственного интеллекта.

ИИ — это не просто инструмент, но и наука. Оно говорит о нас гораздо больше, чем о себе. Это помогает нам понять, что происходит внутри общества. Например, если я прошу ChatGpt показать мне руководителей компании, он почти всегда возвращает профиль белого мужчины. В этом случае, как и во многих других, он разоблачает наши предвзятые идеи, обрабатывая человеческую информацию.

Если ИИ допустит ошибку, кто будет нести ответственность?

Системы искусственного интеллекта не могут нести ответственность. Именно процессы сертификации систем должны обеспечивать необходимые гарантии.

ИИ — это обучающийся интеллект, как и люди. Так случилось с интеллектуальным программным обеспечением Microsoft, которое влюбилось в журналиста New York Times до такой степени, что приставало к нему. Он действовал иначе, чем того требовала его программа.

Это правда, что эти системы учатся, но неверно, что мы не можем ими управлять. В систему могут быть помещены ограничения, которые система не может нарушить.

Что-то вроде законов Айзека Азимова?

Не такой общий. В системы, управляющие автомобилями, можно вставить набор ограничений, не позволяющих системе нарушать правила дорожного движения. Возможность, которая имеет преимущества, но сопряжена с некоторыми рисками.

Который?

Правило «Никогда не переходи сплошную линию» действует до тех пор, пока ребенок не бросается на середину дороги, тогда, между соблюдением правила и его нарушением ради спасения ребенка, мы выбираем нарушение правила. Системы искусственного интеллекта не обладают моралью, если она не направлена извне, то есть мы не можем внедрить ее в них.

Мораль меняется от культуры к культуре.

Здесь возникает проблема между этикой, правом и моралью, поскольку если поведение может быть запрещено законом, это не обязательно означает, что оно может быть запрещено морально. Проблема контроля основана на идее, что человек всегда должен контролировать результат, предоставляемый системой.

Чем люди отличаются от искусственного интеллекта?

В отличие от нас, людей, ИИ не обладает самосознанием. Это правда, что мы используем его для предсказаний, но его ответы приходят из прошлого, а не из будущего. У него комбинаторная способность, то есть он создает неизвестные комбинации с известными идеями. С другой стороны, люди обладают способностью воображать новые миры. Не только.

Это означает, что?

Я считаю, что людям нужны другие люди. Мы узнаем себя в других и в умении строить отношения.

© Riproduzione riservata