Компанія OpenAI розробила інструмент для визначення зображень, згенерованих DALL-E 3, і тестує його всередині компанії, пише Reuters. Це відбувається на тлі зростаючого занепокоєння з приводу впливу контенту, створеного штучним інтелектом, на цьогорічні глобальні вибори.
Велика війна пришвидшила вихід жінок на лідерські ролі. Вже 15 травня на форумі «Вільна» Forbes пропонує подивитися на це явище крізь нову, чітку оптику. Спікерки та спікери з Superhumans, Google, ENKO, McDonald’s, G. Bar та інших. Купуйте квитки за посиланням.
Ключові факти
- OpenAI заявила, що інструмент правильно ідентифікував зображення, створені DALL-E 3, приблизно у 98% випадках.
- Обрізані або відредаговані кадри він розпізнає з меншою ефективністю, але конкретних показників OpenAI не розкриває.
- Творець ChatGPT також планує додати стійкі до підробки водяні знаки для позначення цифрового контенту, такого як фотографії або аудіо, сигналом, який буде важко видалити.
Контекст
Раніше повідомлялося, що техногіганти Google, Microsoft, OpenAI, Meta, TikTok і Adobe планують підписати угоду, щоб виявляти та маркувати створений штучним інтелектом контент під час цьогорічних виборів у країнах світу.
Компанії хочуть створити технологію для виявлення, маркування та контролю зображень, відео- та аудіозаписів, створених за допомогою ШІ.
Цього місяця у розпал передвиборної кампанії в Індії поширення фальшивих відеороликів за участю високопосадовців правлячої партії спровокувало поліцейські розслідування та арешти членів опозиційного Індійського національного конгресу.
Премʼєр-міністр Нарендра Моді назвав це «змовою для створення напруженості в суспільстві», вказавши на використання підроблених голосів для імітації заяв лідерів. Були створені маніпулятивні відео за участю міністра внутрішніх справ Аміта Шаха та іншого високопоставленого помічника премʼєра.
Поліція заарештувала щонайменше девʼятьох осіб, зокрема національного координатора соцмереж Конгресу Аруна Редді, за поширення фейкових відео. Арешти викликали протести прихильників опозиції.