Хакерам вдалось зламати штучний інтелект, завдаючи розробникам $ 46 000 збитків щодня
Фахівці Sysdig виявили нову схему атаки, за якої вкрадені облікові дані до хмарних сервісів використовуються для доступу до послуг хмарних LLM-моделей з метою продажу доступу іншим кіберзлочинцям. Виявлена атака була спрямована на модель Claude (v2/v3) від Anthropic та отримала назву LLMjacking.
Для виконання атаки зловмисник зламав систему з вразливою версією фреймворку Laravel, після чого заволодів обліковими даними Amazon Web Services (AWS), щоб отримати доступ до LLM-сервісів. Серед використаних інструментів — скрипт на Python з відкритим вихідним кодом, який перевіряє ключі для різних сервісів від Anthropic, AWS Bedrock, Google Cloud Vertex AI, Mistral та OpenAI.
Хакери використовували API для перевірки своїх повноважень без привернення уваги. Під час перевірки жодні запити до LLM не виконувались. Достатньо було встановити, які права мають облікові записи.
Крім того, кіберзлочинець використовував інструмент oai-reverse-proxy, який діє як зворотний проксі-сервер для API LLM-моделі, що дозволяє продавати доступ до скомпрометованих облікових записів, не розкриваючи вихідні облікові дані.
У Sysdig пояснили, що таке відхилення від традиційних атак, спрямованих на впровадження команд та «отруєння» моделей, дозволяє хакерам монетизувати доступ до LLM, тоді як власник хмарного облікового запису оплачує рахунки, не підозрюючи про це. За даними Sysdig, подібна атака може призвести до витрат на послуги LLM понад 46 000 доларів на день для жертви.
Источник: noworries.news