Rashmika Mandanna deepfake视频:德里警方仍在等待Meta的回应

大公司日报作者 / 世界之声 / 2025-02-21 02:46
"
    总结  在deepfake的视频中,可以看到一名身穿黑色服装的女子进入电梯  肇事者显然使用了人工智能编辑技术,将曼丹娜

  

  总结

  在deepfake的视频中,可以看到一名身穿黑色服装的女子进入电梯

  肇事者显然使用了人工智能编辑技术,将曼丹娜的脸叠加在一起变成了原来女人的脸

  警察和政府找我助教的合作

  德里警方正在等待社交媒体巨头meta对女演员拉什米卡·曼丹娜(Rashmika Mandanna)的“深度造假”视频的回应。在deepfake视频中,可以看到一名身穿黑色服装的女子进入电梯,但犯罪者显然使用了人工智能编辑技术,将曼丹娜的脸覆盖在原始女子的脸上。

  警方此前曾要求meta公布本月早些时候负责分享“deepfake”视频的Instagram账号的URL。根据该机构的报告,虽然一些问题得到了解决,但meta最近表示,他们缺乏特定账户的数据。

  根据印度刑法第465条(伪造)和第469条(意图损害声誉的伪造),已经提出了FIR。此外,还援引了《信息技术法》第66C和66E条。

  这一法律行动是在德里妇女委员会(DCW)的投诉之后进行的,该委员会对涉及这位印度女演员的“深度造假”视频不予承认。DCW负责人Swati Maliwal此前表示:“在接到通知后,德里警方已经对@ amrashmika伪造视频案进行了立案调查。被告很快就会被逮捕。”

  以下是一些保护自己免受深度假冒的步骤

  1. 核实消息来源:对不熟悉或未经核实的媒体来源要谨慎。坚持使用信誉良好的网站和官方社交媒体账号获取信息和媒体内容。

  2. 检查真实性:仔细检查视频或图像的不一致、奇怪的面部表情、不自然的动作或模糊的区域,因为这些可能表明视频或图像被篡改了。

  3.。启用双因素身份验证(2FA):尽可能激活2FA,特别是在您的电子邮件和社交媒体帐户上。这为防止未经授权的访问增加了额外的安全层。

  4. 更新隐私设置:定期检查和更新你在社交媒体平台上的隐私设置。限制谁可以查看或下载您的内容。

  5. 警惕分享个人数据:避免分享敏感的个人信息或可能被用来创建操纵内容的图像/视频。

  6. 自我教育:了解深度假技术及其影响。了解这些技术的工作原理可以帮助您识别潜在的风险。

  7. 使用可信的工具:使用信誉良好的防病毒软件或深度伪造检测工具,可以帮助识别被操纵的内容。

分享到
声明:本文为用户投稿或编译自英文资料,不代表本站观点和立场,转载时请务必注明文章作者和来源,不尊重原创的行为将受到本站的追责;转载稿件或作者投稿可能会经编辑修改或者补充,有异议可投诉至本站。

热文导读