Касагранде отметил, что нейросети способны помочь террористам в идентификации опасных биологических агентов. «Что, если бы у каждого террориста на плече сидел маленький ученый?» — задался он риторическим вопросом, подчеркивая масштаб угрозы, связанной с использованием ИИ в зловредных целях, сообщает агентство.
Выводы Касагранда пришли после того, как разработчики чат-бота Claude, компания Anthropic, пригласили его протестировать научные возможности нейросети. Директор Anthropic Джек Кларк утверждает, что такие чат-боты имеют потенциал обучать пользователей, как создавать опасные вирусы.
Согласно информации Bloomberg, президент США Джо Байден, вице-президент Камала Харрис и советник по национальной безопасности Джейк Салливан проявили «личный интерес» к данной проблеме. В июле 2022 года крупные компании в области ИИ, такие как OpenAI, Anthropic и Microsoft, подписали добровольное соглашение по оценке «наиболее значительных рисков» в области биобезопасности.
В октябре 2023 года Белый дом издал указ, направленный на усиление контроля за государственно финансируемыми исследованиями искусственных геномов. Тогда Камала Харрис подчеркнула, что возможность создания биологического оружия с использованием ИИ представляет «угрозу для самого существования человечества».
Известные бизнесмены Илон Маск и Стив Возняк подписали открытое письмо с призывом приостановить обучение ИИ. Они указали на то, что нейросети, обладающие интеллектом, сопоставимым с человеческим, могут представлять серьезные риски для общественной безопасности. В свете этих предупреждений, необходимость регулирования и контроля над развитием технологий становится более актуальной, чем когда-либо.
Ранее мы писали о том, что искусственный интеллект создает угрозу для многих профессий. Об этом заявил депутат Госдумы по информационной политике Антон Немкин в интервью для «РИА Новости». Он подчеркнул, что компании, получающие повторяющиеся обращения, могут организовать эффективное решение через алгоритмы искусственного интеллекта, что приведет к сокращению штата сотрудников.