
Як бізнес реагує на зростання контенту зі штучним інтелектом
Через ці проблеми великі технологічні компанії працюють над способами покращення автентичності та походження медіа. У рамках своєї щорічної конференції Build корпорація Майкрософт оголосила, що її інструменти Bing Image Creator і Designer тепер матимуть нові функції походження медіа.
Користувачі зможуть перевірити, чи були зроблені зображення або відео штучним інтелектом, використовуючи криптографічні методи, які включають інформацію про те, звідки прийшов контент.
Але щоб ця система працювала, різні платформи мають погодитися на специфікацію Коаліції за походження та автентичність контенту (C2PA).
Крім того, Meta випустила інструмент під назвою Meta Video Seal , який може додавати невидимі водяні знаки до відеокліпів, зроблених штучним інтелектом.
Цей інструмент з відкритим вихідним кодом призначений для безпроблемної роботи з існуючим програмним забезпеченням, що полегшує пошук контенту, створеного штучним інтелектом.
Video Seal обіцяє бути стійким до поширених редагувань, таких як розмиття та обрізання, на відміну від старих технологій водяних знаків, які мали проблеми зі стисненням відео та маніпуляціями.
Проблеми та обмеження
Навіть з урахуванням цих удосконалень, все ще залишаються проблеми з тим, щоб змусити багато людей використовувати ці технології. Багато розробників можуть вагатися щодо переходу від існуючих фірмових рішень до варіантів з відкритим вихідним кодом, таких як Video Seal.
Meta планує проводити воркшопи на великих конференціях зі штучного інтелекту та зробити публічну таблицю лідерів, у якій порівнюватимуться різні методи нанесення водяних знаків, щоб залучити більше людей до спільної роботи.
Крім того, методи нанесення водяних знаків, які ми маємо зараз, не завжди достатньо сильні або ефективні, коли справа доходить до відеоконтенту.

Source: aidemos.meta.com
Два основні підходи до боротьби з контентом, створеним штучним інтелектом
У боротьбі з контентом, створеним штучним інтелектом, з’явилися дві різні стратегії:
- Нанесення водяних знаків (профілактичний підхід):
- Працює шляхом додавання невидимих підписів до контенту в момент створення
- Діє як цифровий сертифікат, який показує, що «це було зроблено штучним інтелектом»
- Такі інструменти, як Meta Video Seal і функції походження Microsoft, представляють цей підхід
- Головною перевагою є миттєва ідентифікація контенту ШІ
- Інструменти виявлення (аналітичний підхід):
- Аналізує існуючий контент, щоб визначити, чи був він створений штучним інтелектом
- Шукає закономірності та характеристики, характерні для контенту, створеного штучним інтелектом
- Особливо корисно для контенту, який не було позначено під час створення
- Ці інструменти формують нашу другу лінію оборони
Обидва підходи необхідні, оскільки вони доповнюють один одного: водяні знаки запобігають неправильному використанню, а інструменти виявлення допомагають виявляти непозначений контент.
Інструменти та технології виявлення
Контент, створений штучним інтелектом, можна знайти різними способами, ніж просто технології додавання водяних знаків. Нові інструменти виявлення використовують складні алгоритми для перегляду як текстового, так і графічного вмісту.

Source: Depositphotos
- Оригінальність, алгоритми глибокого навчання використовуються штучним інтелектом для пошуку закономірностей у тексті, який був згенерований штучним інтелектом.
- GPTZero розглядає лінгвістичні структури та частоту слів, щоб відрізнити контент, який був написаний людьми, від контенту, який був створений машинами.
- CopyLeaks використовує N-грами та порівняння синтаксису, щоб знайти невеликі зміни в мові, які можуть бути ознаками авторства ШІ.
Ці інструменти повинні давати користувачам точні думки про те, наскільки реальним є контент, але те, наскільки добре вони працюють, може сильно відрізнятися.
На закінчення
У міру розвитку генеративного штучного інтелекту захист цифрової автентичності стає все більш важливим. Microsoft і Meta лідирують у цьому напрямку завдяки новаторським стандартам автентичності контенту та перевірки походження медіа.
Щоб ефективно боротися з діпфейками, нам потрібне як загальногалузеве впровадження цих інструментів, так і тісніша співпраця між технологічними компаніями. Майбутня цілісність цифрового контенту залежить від технологій виявлення, які розвиваються швидше, ніж обман, створений штучним інтелектом.
Нещодавно ми розповідали про те, як YouTube робить подібні кроки, представляючи нові інструменти виявлення штучного інтелекту для творців і брендів. Їхній підхід включає синтетичну голосову ідентифікацію та технології виявлення облич, створені штучним інтелектом, що ще більше демонструє, як основні платформи працюють над захистом автентичності контенту в епоху штучного інтелекту.