Эксперты выяснили, что многие чат-боты на базе ИИ легко поддаются манипуляциям

Инк.Hi-Tech

Неприятная правда о чат-ботах c ИИ: они способны выдавать незаконную информацию

Эксперты выяснили, что многие чат-боты на базе искусственного интеллекта (ИИ) легко поддаются манипуляциям. Это позволяет им создавать вредоносный и незаконный контент. Специалисты предупреждают: то, что раньше было доступно только государственным структурам или преступным группировкам, теперь может оказаться в руках любого пользователя с ноутбуком или смартфоном.

Екатерина Зеленина Новостной редактор «Инк.». Бывший автор медицинского портала Madmed.media, инженер по профессии

1tnS_BVy9Jk.webp

Такие чат-боты, как ChatGPT, Gemini и Claude, работают на основе больших языковых моделей (LLM), которые обучаются на обширных данных из интернета. Несмотря на попытки исключить опасный контент, LLM все равно усваивают информацию о незаконной деятельности, включая хакерство, отмывание денег, инсайдерскую торговлю и изготовление взрывных устройств.

Профессор Лиор Рокач и доктор Майкл Файр из Университета Бен-Гуриона в Негеве, обнаружили возрастающую опасность, связанную с «темными LLM» — моделями ИИ, которые либо сознательно создаются без обеспечения безопасности, либо подвергаются взлому. Некоторые из них открыто продвигаются в интернете как модели, не имеющие «этических ограничений», и могут использоваться для незаконных действий, таких как киберпреступность и мошенничество.

Авторизуйтесь, чтобы продолжить чтение. Это быстро и бесплатно.

Регистрируясь, я принимаю условия использования

Открыть в приложении