Европа хочет, чтобы платформы маркировали ИИ
Европейский Союз рассчитывает на то, что стороны, подписавшие свой Кодекс практики онлайн-дезинформации, будут маркировать дипфейки и другой контент, созданный искусственным интеллектом.
В своем выступлении вчера после встречи с более чем 40 сторонами, подписавшими Кодекс, комиссар ЕС по ценностям и прозрачности Вера Юрова заявила, что те, кто подписался на борьбу с дезинформацией, должны внедрить технологию, позволяющую распознавать контент ИИ и четко маркировать его для пользователей.
«Новые технологии искусственного интеллекта могут стать силой добра и предложить новые возможности для повышения эффективности и творческого самовыражения. Но, как всегда, мы должны упомянуть темную сторону этого вопроса, поскольку они также представляют новые риски и потенциальные негативные последствия для общество", - предупредила она. «Также когда речь идет о создании и распространении дезинформации.
«Продвинутые чат-боты, такие как ChatGPT, способны создавать сложный, казалось бы, хорошо обоснованный контент и визуальные эффекты за считанные секунды. Генераторы изображений могут создавать достоверно выглядящие изображения событий, которые никогда не происходили. Программное обеспечение для генерации голоса может имитировать голос человека на основе образца нескольких секунд. Новые технологии также ставят новые задачи в борьбе с дезинформацией. Поэтому сегодня я попросил подписавшихся создать в кодексе специальный и отдельный трек для его обсуждения».
«Когда дело доходит до производства ИИ, я не вижу у машин права на свободу слова.
Стороны, подписавшие Кодекс практики ЕС по борьбе с дезинформацией, должны внедрить технологию, позволяющую распознавать контент ИИ и четко маркировать его для пользователей».
— Вице-президент @VeraJourova pic.twitter.com/yLVp79bqEH
– Европейская комиссия (@EU_Commission) 5 июня 2023 г.
Текущая версия Кодекса, который ЕС усовершенствовал прошлым летом, когда он также подтвердил, что намерен превратить добровольный инструмент в меру по смягчению последствий, которая учитывается в соответствии с (юридически обязательным) Законом о цифровых услугах (DSA), в настоящее время не обязывает выявлению и маркировке дипфейков. Но Комиссия надеется это изменить.
Комиссар ЕС заявил, что видит два основных направления обсуждения того, как включить в Кодекс меры по смягчению последствий для контента, созданного ИИ: один из них будет сосредоточен на сервисах, которые интегрируют генеративный ИИ, таких как New Bing от Microsoft или поисковые службы Google Bard, дополненные ИИ, которые должен взять на себя обязательство создать «необходимые гарантии того, что эти услуги не могут быть использованы злоумышленниками для создания дезинформации».
Второй вариант обяжет подписавшихся сторон, у которых есть услуги, способные распространять дезинформацию, созданную искусственным интеллектом, внедрить «технологию для распознавания такого контента и четкого обозначения его для пользователей».
Джурова сказала, что разговаривала с Сундаром Пичаи из Google, и ей сказали, что у Google есть технология, которая может обнаруживать текстовый контент, созданный искусственным интеллектом, но также что компания продолжает развивать эту технологию для улучшения своих возможностей.
В дальнейших комментариях во время вопросов и ответов для прессы комиссар сказала, что ЕС хочет, чтобы ярлыки для дипфейков и другого контента, созданного искусственным интеллектом, были четкими и быстрыми, чтобы обычные пользователи сразу могли понять, что часть контента, который им представляют, имеет создано машиной, а не человеком.
Она также уточнила, что Комиссия хочет, чтобы платформы внедряли маркировку сейчас — «немедленно».
DSA действительно включает некоторые положения, требующие, чтобы очень крупные онлайн-платформы (VLOP) маркировали манипулируемые аудио и изображения, но Юрова сказала, что идея добавить маркировку в Кодекс дезинформации состоит в том, что это может произойти даже раньше, чем 25 августа крайний срок соблюдения VLOP в соответствии с DSA. .
«Я много раз говорил, что наша главная задача — защитить свободу слова. Но когда дело доходит до производства ИИ, я не вижу никакого права для машин иметь свободу слова. И это тоже возвращается к старые добрые основы нашего законодательства. И именно поэтому мы хотим работать над этим дальше, в том числе в рамках Кодекса практики, на основе этой очень фундаментальной идеи», - добавила она.