AI对决AI!金融科技打响AI欺诈攻防战
经济观察报 记者 老盈盈
在AI(人工智能)技术快速发展的背景下,各式各样的“深度伪造”(Deepfake)随时可能在日常生活中出现,让人防不胜防。
近期,蚂蚁数字科技(下称“蚂蚁数科”)的产品技术人士在对算法进行优化时发现了一些不法分子新的欺诈手段。不法分子首先布下“钓鱼”陷阱,以银行的身份向被攻击对象发送短信或邮件链接,引导他们到其网站进行交易。等被攻击对象不慎点击进入钓鱼网站,提交了自己的姓(搜索结果收录于2025年11月7日)
☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

近日,OpenAI与美国演员工会(SAG-AFTRA)等机构联合发布声明,宣布建立深度合作机制,重点防范其AI视频生成工具Sora可能引发的深度伪造(Deepfake)滥用风险。
Sora是OpenAI推出的文本到视频生成模型,自发布以来便引发全球高度关注。该模型具备“1分钟长视频生成”“物理规律模拟”“多镜头叙事”等多项前沿能力。然而,其强大的内容生成潜力也伴随着显著的安全隐患。不法分子可能利用此类技术伪造公众人物影像、篡改历史场景或制造虚假信息,严重威胁个人名誉、社会公信力乃至国家安全。
当地时间10月20日,OpenAI宣布将与演员布莱恩·克兰斯顿、美国演员工会(SAG-AFTRA)及其他表演者工会展开合作,共同应对AI生成内容带来的伦理与法律挑战。此前,在9月底Sora 2上线后,平台出现了未经授权使用克兰斯顿声音和形象生成的AI视频,引发了这位《绝命毒师》主演的公开担忧。他在声明中表示:“感谢OpenAI制定政策并完善防护机制,希望所有相关企业都能尊重我们管理自身声音与肖像复制权的职业权利。”
除演员工会外,OpenAI还将与代表克兰斯顿的联合人才经纪公司(UTA)、经纪人协会(ATA)以及创意艺术家经纪公司(CAA)协同合作,进一步强化对未经授权AI内容的管控。值得一提的是,CAA和UTA此前曾批评OpenAI在Sora训练过程中使用受版权保护的内容,认为此举对其客户及知识产权构成潜在威胁。
此外,上周OpenAI已应马丁·路德·金遗产委员会的要求,在Sora平台上屏蔽了涉及该民权领袖的“不敬描述”视频。这一举措反映出公司在面对敏感历史人物时所采取的审慎态度。
自9月30日Sora 2正式推出以来,OpenAI持续调整其在版权与肖像权方面的政策框架。10月3日,首席执行官萨姆·奥特曼更新了Sora的“退出政策”(opt-out),赋予版权所有者更精细的角色生成控制权限。尽管Sora在发布初期即实行用户需明确授权方可使用他人声音与肖像的“选择加入”(opt-in)机制,但公司此后再次承诺将快速响应任何侵权投诉。
此次合作中,OpenAI进一步明确将在后续版本中全面推行严格的“选择加入”制度:所有艺术家、表演者乃至普通用户必须主动授权,其声音与形象才能被用于AI视频生成。例如,若有人试图生成克兰斯顿的虚拟形象,则必须获得其本人或授权代理的确认,并限定具体用途与时限。
同时,OpenAI将设立快速处理通道,对涉嫌侵权的内容及时下架,并配合执法机构追溯源头。公司还宣布将向合作方开放部分底层技术细节,鼓励第三方开发深度伪造检测工具。目前,斯坦福大学、麻省理工学院(MIT)等顶尖高校已参与相关研究,致力于通过算法识别AI生成内容中的细微异常。
OpenAI重申其对美国《禁止假冒法案》(NO FAKES Act)的支持。该联邦法案旨在禁止未经授权使用AI复制人类的声音或视觉形象,保护个体身份权益不受侵害。公司表示将持续推动行业规范建设,确保AI技术发展不逾越伦理与法律边界。
以上就是OpenAI联手多方加强Sora监管,严控AI视频深度伪造风险的详细内容,更多请关注php中文网其它相关文章!
每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。
Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号