Розробники Meta працюють над створенням безкомпромісного штучного інтелекту, який неможливо зламати
Meta готується до випуску чергової версії своєї моделі штучного інтелекту під назвою Llama 3. На відміну від консервативного підходу в Llama 2, де Meta уникала будь-яких піар-скандалів, нова Llama 3 покликана розрізняти небезпечний і шкідливий зміст слів з подвійним значенням.
Для цього в команді є фахівець, який займатиметься навчанням моделі і відповідатиме за те, щоб її відповіді стали більш гнучкими. Однак тільки за останній місяць Meta залишили відразу троє провідних експертів у сфері безпеки ШІ, наразі невідомо, як це позначиться на якості розробки.
Не повідомляється, чи стане Llama 3 мовною моделлю, подібно до Llama 2, чи мультимодальною, здатною розуміти і генерувати не тільки текст, а й зображення. Згідно з наявними даними, ця модель, що розробляється як альтернатива GPT-4, може містити до 140 млрд параметрів. Це приблизно вдвічі більше, ніж у попередній версії. Проте, 140 млрд параметрів — лише частина від заявленого обсягу GPT-4, яка спочатку повинна була бути ще масштабнішою.
Навчання Llama 3 поки не почалося, але очікується, що за якістю генерації вона все ж таки досягне рівня GPT-4. Нагадаємо, випуск Llama 2 відбувся у липні минулого року.
У 2023 році компанія Meta також створила комплекс інструментів з безпеки та оцінки генеративних моделей штучного інтелекту на запит Білого Дому. Набір інструментів отримав назву Purple Llama — він призначений для безпечної взаємодії розробників з інструментами генеративного ШІ, включно з відкритою моделлю Meta, Llama-2.
Источник: noworries.news