tg-me.com/forensic_lawyer_news/1366
Last Update:
Закон о дипфейках в России
Современные информационные технологии способны поражать воображение. Уже известны случаи "возрождения" покинувших нас актеров с помощью искусственного интеллекта, случаи омолаживания актеров в возрасте, а также другие проявления синтеза изображения человека и его голоса с помощью технологии, именуемой "дипфейк". В конце прошлого года мы рассказывали о ситуации, когда к президенту России Путину В.В. обратился с вопросом его же дипфейк-клон: тогда Владимир Владимирович заявил о намерениях возглавить развитие технологий искусственного интеллекта (далее — ИИ).
Немаловажной ступеней развития ИИ-технологий является законодательное регулирование их применения. 01.04.2024 стало известно, что этот вопрос на днях обсуждался в Госдуме России. Сейчас ведется разработка законопроекта, призванного урегулировать понятие "дипфейк" в российском правовом поле, рассказали в Госдуме.
На текущий момент возникающие споры разрешаются нормами авторского права, если речь о кино или рекламе, но одной из целей, выраженных в законе станет этический аспект использования вышеописанных технологий.
Особую обеспокоенность использованием дипфейков в киноискусстве выразила глава Комитета Госдумы по культуре Ямпольская Е.А., упомянув также об идее не выдавать прокатное удостоверение (ПУ) фильмам, в которых ключевые роли отданы дипфейкам, ведь по её мнению "дипфейки как явление могут привести к тому, что ныне живущие таланты окажутся не востребованы".
Более позитивную и компетентную позицию озвучил продюсер и сценарист Золотарев А.Х. Согласно его заявлению, технически для продюсеров дороже "воскресить" покойного именитого актера с помощью ИИ-технологий вместо того, чтобы подобрать реального профессионала актерского ремесла. Сценарист также отметил, что со временем применение технологии станет более бюджетным.
В качестве исключительно негативной стороны дипфейков можно выделить многократное увеличение рисков использования данной технологии, как способа мошенничества и иных видов преступлений. Согласно исследованию за 2023 год число совершенных преступлений с помощью технологии дипфейк в мире выросло на 700%.
В одном из следующих постов мы подробнее раскроем тему мошенничества с использованием ИИ-технологий, а пока рекомендуем ознакомиться с действующими правовыми механизмами, которые помогут защитить свои права от злоупотреблений с использованием дипфейков.
Независимо от того, к каким положениям будущего закона о дипфейках придёт законодатель, заинтересованные в безопасности своей индивидуальности граждане уже сейчас должны знать, что в России привлекать к ответственности за неправомерное использование дипфейков можно в рамках:
📌 ст.ст. 158, 159 или 163 УК РФ в случае совершения хищения имущества потерпевшего путем кражи, мошенничества, вымогательства с использованием технологии дипфейк
📌 ст. 152.1 ГК РФ о незаконном использовании изображения гражданина;
📌 ст. 1301 ГК РФ в случае нарушения авторских прав.
#дела_цифровые
@forensic_lawyer
BY Будни форензик — адвоката
Warning: Undefined variable $i in /var/www/tg-me/post.php on line 280
Share with your friend now:
tg-me.com/forensic_lawyer_news/1366