Виталик Бутерин поддержал законопроект о безопасности ИИ
Сооснователь Ethereum Виталик Бутерин выразил поддержку законопроекту Калифорнии SB 1047 о безопасности искусственного интеллекта.
Ему понравилось, что проект вводит категорию «критического вреда». Одной из целей инициативы является обязательное проведение испытаний безопасности. Так что если во время испытаний обнаружат угрожающие миру возможности/поведение, вам вообще не разрешат выпустить модель, отметил Бутерин.
«В 2024 году ИИ проходит тест Тьюринга. Стоит отнестись к этому серьезно. Те же самые инстинкты, которые заставляют нас бояться очень могущественного правительства, должны заставить нас опасаться неожиданно мощного сверхинтеллекта», — заявил сооснователь Ethereum.
Рано или поздно, кто - нибудь из испытателей совершит ошибку и проморгает какую-то критическую опасность. Если несколько лабораторий собрали со всего мира самых лучших мировых специалистов и соревнуются между собой, кто первый создаст сильный искусственный интеллект, то какой может быть результат?
Мне кажется, что тут все однозначно, - ведь человек всегда достигает своей цели (даже если его цель самоубиться посредством создания ИИ).
Успешный аудит можно провести один раз, второй раз, десятый раз, но рано или поздно аудиторы допустят ошибку и демон вырвется на свободу.
Тут же нужен тотальный запрет всех разработок в сфере ИИ, а не полумеры в виде аудита (хотя и это вообщем не поможет).
По хорошему помочь может только локальная катастрофа с уничтожением только части, а не всего человечества, но это маловероятный сценарий. Хотя наверно это единственный вариант одуматься и остановиться.