英特尔表示,它可以实时从深度伪造中分辨出真人

英特尔表示,它可以实时从深度伪造中分辨出真人 2022-11-17 18:37:27 1619

英特尔公司声称,他们已经开发出一种人工智能模型,可以通过寻找颜色的细微变化,实时检测视频是否使用了深度造假技术。如果拍摄对象是一个活生生的人,这种细微变化就会很明显。

这家芯片制造巨头声称,FakeCatcher能够在毫秒内返回结果,准确率高达96%。

近年来,人们一直对所谓的深度伪造视频感到担忧,这种视频使用人工智能算法生成虚假的人物镜头。主要的担忧集中在它可能被用来让政客或名人看起来在发表声明或做他们实际上没有说过或做过的事情。

“深度造假视频现在到处都是。你可能已经看过了;名人做了或说了他们从未做过的事情的视频,”英特尔实验室的研究科学家Ilke Demir说。它不仅影响了名人,甚至普通市民也成为了受害者。

据这家芯片制造商称,一些基于深度学习的探测器会分析原始视频数据,试图找到可以识别出视频是假的泄密迹象。相比之下,FakeCatcher采取了不同的方法,包括分析真实视频中的视觉线索,以表明主题是真实的。

这包括视频像素颜色的细微变化,这是由于心脏将血液泵入全身而引起的。英特尔表示,这些血流信号被收集到面部各处,算法将这些信号转化为时空地图,使深度学习模型能够检测视频的真假。据称,一些检测工具需要上传视频内容进行分析,然后等待数小时才能得到结果。

然而,只要有足够的时间和资源,任何有动机制作虚假视频的人都有可能开发出可以骗过FakeCatcher的算法,这并不是不可能的。

在开发FakeCatcher时,英特尔自然大量使用了自己的技术,包括用于优化深度学习模型的OpenVINO开源工具包和用于处理实时图像和视频的OpenCV。开发团队还使用开放可视云平台为英特尔的至强可扩展处理器提供集成软件堆栈。FakeCatcher软件可以在第3代至强可扩展处理器上同时运行多达72种不同的检测流。

英特尔表示,FakeCatcher有几个潜在的用途,包括防止用户向社交媒体上传有害的深度伪造视频,以及帮助新闻机构避免播放被篡改的内容。

声明:本文内容由易百纳平台入驻作者撰写,文章观点仅代表作者本人,不代表易百纳立场。如有内容侵权或者其他问题,请联系本站进行删除。
红包 1 1 评论 打赏
评论
0个
内容存在敏感词
手气红包
    易百纳技术社区暂无数据
相关专栏
置顶时间设置
结束时间
删除原因
  • 广告/SPAM
  • 恶意灌水
  • 违规内容
  • 文不对题
  • 重复发帖
打赏作者
易百纳技术社区
您的支持将鼓励我继续创作!
打赏金额:
¥1易百纳技术社区
¥5易百纳技术社区
¥10易百纳技术社区
¥50易百纳技术社区
¥100易百纳技术社区
支付方式:
微信支付
支付宝支付
易百纳技术社区微信支付
易百纳技术社区
打赏成功!

感谢您的打赏,如若您也想被打赏,可前往 发表专栏 哦~

举报反馈

举报类型

  • 内容涉黄/赌/毒
  • 内容侵权/抄袭
  • 政治相关
  • 涉嫌广告
  • 侮辱谩骂
  • 其他

详细说明

审核成功

发布时间设置
发布时间:
是否关联周任务-专栏模块

审核失败

失败原因
备注
拼手气红包 红包规则
祝福语
恭喜发财,大吉大利!
红包金额
红包最小金额不能低于5元
红包数量
红包数量范围10~50个
余额支付
当前余额:
可前往问答、专栏板块获取收益 去获取
取 消 确 定

小包子的红包

恭喜发财,大吉大利

已领取20/40,共1.6元 红包规则

    易百纳技术社区