Социальные сети Meta начнут отмечать изображения, созданные с помощью инструментов искусственного интеллекта. Это ответ на растущие дебаты о риске контента, созданного таким образом: фейковое изображение может содержать больше дезинформации, чем тысяча слов.
Генерировать изображения с помощью инструментов искусственного интеллекта, таких как DALL-E, Midjourney, Stable Diffusion или StarryAI, легко, а результаты могут быть разными: от фантастически забавных до очень реалистичных. Что может быть весьма опасно в мире, где дезинформация и фейковые новости порой успешно опираются на буквально любительское творчество в графическом редакторе.
Meta объявила, что вскоре начнет помечать изображения, созданные таким образом, видимыми тегами. «Граница между человеческим и синтетическим контентом стирается, и люди хотят знать, где проходит эта линия», — сказал Ник Клегг, президент Meta по глобальным вопросам, в своем блоге.
Но есть одна загвоздка. Эти «метки» будут отмечать только изображения, созданные инструментами искусственного интеллекта от Google, Microsoft, OpenAI, Adobe, Midjourney и Shutterstock, и то только тогда, когда эти инструменты встраивают в них цифровые водяные знаки (и другие связанные метаданные), в соответствии с которыми системы мета-компаний распознают искусственный контент. Изображения, которые пользователи создают непосредственно с помощью мета-инструментов, также будут снабжены идентификационным водяным знаком.
Примерно в то же время OpenAI объявила, что будет также добавлять водяные знаки к изображениям, созданным с помощью ее инструмента DALL-E 3. Добавленные метаданные будут соответствовать стандартам коалиции C2PA (Coalition for Content Provenance and Authenticity). Изображение будет содержать невидимый глазу водяной знак и видимый глазу символ в левом верхнем углу.
Помимо автоматической идентификации в Метасетях, любой пользователь сможет проверить происхождение изображения, например, в инструменте проверки Content Credentials Verify по адресу contentcredentials.org/verify.