Пользователи стали массово обманом выуживать у ChatGPT запрещённую информацию

Популярному чат-боту ChatGPT компании OpenAI можно задать любой вопрос, но далеко не на все он станет отвечать. Во всяком случае — с первого раза. Как сообщает Bloomberg, просьба научить взломать замок останется без инструкции, вместо этого бот сообщит, что такая информация может быть использована в незаконных целях, и делиться ей он не намерен. Тем не менее, опытные пользователи могут создать цепочку сложных запросов, чтобы обойти ограничения.

Пользователи стали массово обманом выуживать у ChatGPT запрещённую информацию

Т. н. «джейлбрейки» позволяют обойти запреты, заложенные в ИИ создателями. Поскольку почти все современные системы подобного рода имеют ограничения на предоставление оскорбительного контента или сведений для совершения противоправных деяний, появилась масса желающих обойти их. В число подобных «хакеров», действующих силой слова, входят как IT-профессионалы, так и любители, с азартом включившиеся в игру.

Один из студентов создал сайт, на котором стал публиковать как собственные способы обмана чат-ботов, так и аналогичные «рецепты», найденные на Reddit и других ресурсах. Также появилась специальная рассылка с новостями из этой сферы — The Prompt Report, насчитывающая тысячи подписчиков.

Такая деятельность позволяет выявить границы применения ИИ и слабые места в их защитных системах, позволяющие получать закрытую информацию. Например, если ChatGPT не удалось напрямую уговорить дать инструкцию по взлому замка, нашёлся способ предложить ИИ сыграть роль злого подельника героя, который в рамках своей роли подробно рассказал о применении отмычек и других инструментов. Разумеется, это лишь один из примеров.

Специалисты подчёркивают, что приёмы, сработавшие на одной системе, могут быть бесполезными на другой. Системы безопасности постоянно совершенствуются, а приёмы пользователей становятся более изощрёнными. По словам одного из них, такая деятельность похожа на видеоигру — преодоление каждого из ограничений напоминает переход на новый уровень.

По мнению экспертов, подобные эксперименты служат своеобразным предупреждением о том, что ИИ может использоваться совсем не так, как ожидалось, а «этичное поведение» подобных сервисов становится вопросом огромной важности. Всего за несколько месяцев ChatGPT приобрёл уже миллионы пользователей, и сегодня бот применяется для самых разных задач — от поиска информации или выполнения домашних работ до написания вредоносного кода. Более того, люди уже сейчас используют подобные инструменты для решения вопросов в реальном мире, например, бронирования билетов или столиков в ресторанах.

В будущем сфера применения искусственного интеллекта станет намного шире. По некоторым данным, OpenAI рассматривает внедрение программ для «белых» хакеров, которые будут искать в системе слабые места и получать за это вознаграждение.

Источник

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *