Корпорація Microsoft спроектувала систему позначення та електронної ідентифікації AI-матеріалу, однак наразі не взяла на себе зобов’язання її повністю застосовувати.

Як довести, що контент справжній / © Pixabay
Фірма Microsoft висунула свіжий підхід до засвідчення дійсності онлайн-матеріалу на фоні швидкого розповсюдження продуктів, створених чи змінених із застосуванням штучного розуму. Разом із тим, фірма поки що не зобов’язалася впровадити ці настанови у своїх виробах.
Про це повідомляється на MIT Technology Review.
«AI-дезінформація все глибше проникає у цифровий світ — від брехливих зображень, котрі поширюють чиновники, до відео впливових кампаній, спрямованих на аудиторію у різних країнах», — зауважують у виданні.
Отже, дослідницька група Microsoft з безпеки ШІ підготувала технічну «мапу дій», що має допомогти розрізняти справжній матеріал від зміненого.
Як це буде працювати
Експерти проаналізували близько 60 різних поєднань методів електронної ідентифікації — від метаданих та водяних знаків до криптографічних підписів, щоб дізнатися, які засоби залишаються надійними навіть у випадках часткових змін файлу чи зумисних маніпуляцій.
Метод ідентифікації Microsoft уподібнює до експертної оцінки картини Рембрандта. Тобто, необхідно мати доказ походження, прихований машиночитний знак та електронний «відбиток», що засвідчує оригінальність.
За словами головного наукового працівника компанії Еріка Горвіца, поштовхом до роботи стали як нові законодавчі ініціативи, зокрема закон штату Каліфорнія про відкритість ШІ, так і швидкий розвиток технологій, здатних виробляти гіперреалістичні відео та аудіо.
Утім, Горвіц наголосив: йдеться не про встановлення правдивості матеріалу, а лише про його походження.
«Це не про те, щоб вирішувати, що істина, а що ні. Це про позначення, яке показує, звідки взявся матеріал», — роз’яснив він.
Чи впровадить Microsoft власні норми?
Незважаючи на амбітність ініціативи, Microsoft не гарантує повного впровадження цих стандартів у своїй екосистемі. Компанія керує сервісом Copilot, хмарною платформою Azure, професійною мережею LinkedIn, а також володіє значною часткою в OpenAI.
У компанії відзначили, що дослідження вже впливає на оновлення виробів, проте конкретних зобов’язань щодо обов’язкового позначення всього AI-матеріалу не надали.
Обмеження технологій
Експерти підкреслили, що навіть найкращі системи ідентифікації не визначають, чи є інформація правдивою. Вони тільки фіксують факт редагування або творення матеріалу за допомогою ШІ.
Професор електронної криміналістики з Каліфорнійського університету Гані Фарід вважає, що запровадження подібних норм значно ускладнило б масове поширення маніпуляцій. Однак цілком проблему це не вирішить.
Дослідження також засвідчують, що навіть коли користувачам повідомляють про штучне походження матеріалу, це не завжди зменшує його вплив.
Регулювання та політика
Нові правила щодо позначення AI-матеріалу вже розробляються в Європейському Союзі та низці інших країн. Каліфорнійський закон може стати першим масштабним тестом дієвості таких інструментів у США.
Однак занадто швидке чи неточне впровадження систем ідентифікації може зруйнувати довіру до них. Дослідники Microsoft застерігають: у деяких випадках краще не показувати жодного позначення, ніж демонструвати помилкове.
На тлі глобального зростання кількості дипфейків та маніпулятивних матеріалів питання електронної автентичності стає не тільки технологічним, а й політичним викликом. І хоча ініціатива Microsoft може задати новий стандарт, її реальний вплив залежатиме від того, чи готові самі технологічні гіганти застосовувати ці правила до власних продуктів.
Тим часом компанія Meta отримала патент на штучний інтелект, котрий начебто допомагає продовжувати активність у соцмережах навіть після смерті користувача.
Ідея полягає у створенні електронного «клону» особистості, що реагуватиме на пости, коментарі та повідомлення, наслідуючи поведінку користувача.
Source: tsn.ua
