图片来源:罗布·多比

想​​法变得重要

网络安全

8463永利皇宫登录s,解释

作者

2019 年 3 月,一家英国能源公司的首席执行官在电话中听到他的老板(该公司德国母公司的领导)下令将 22 万欧元转移给匈牙利的一家供应商。

新闻报道随后详细说明首席执行官认识到“轻微的德国口音和旋律”他听从了上司的声音,按照命令在一小时内转出了这笔钱[相当于约 243,000 美元]。打电话的人曾多次尝试获得第二轮资金,但当时英国高管已经产生了怀疑,并没有再进行任何转账。

220,000 欧元被转移到墨西哥并转入其他账户,而这家能源公司(未透露姓名)向其保险公司 Euler Hermes Group SA 报告了这一事件。裕利安宜 (Euler Hermes) 的一名官员表示,窃贼利用人工智能来伪造这位德国高管的声音,尽管此后有报道质疑缺乏支持证据.

不过,可以肯定的是,此类犯罪的技术确实存在,只是下一次攻击何时发生以及目标是谁的问题。

“现在需要更加警惕”,哈尔西·布尔贡德 (Halsey Burgund) 说道,麻省理工学院开放纪录片实验室。 “人们应该将在互联网上自由发布的所有内容视为可供某人做某事的潜在培训数据。”

数据操纵并不新鲜。古罗马人在石头上凿出名字和肖像,永久删除一个人的身份和历史。苏联领导人约瑟夫·斯大林使用审查和图像编辑在20世纪上半叶控制他的人格和政府。计算机时代的到来意味着点击几下鼠标就可以缩小腰围或从照片中删除某人。今天的数据处理仍然依赖于计算机,但正如能源公司事件所表明的那样,人类的声音以及越来越多的视频剪辑被用来说服人们他们所听到或看到的都是真实的。

虽然可能存在关于永久使用8463永利皇宫登录造假的争论,但专家警告说,如果不了解8463永利皇宫登录造假,8463永利皇宫登录造假可能会对某人的个人和职业生活造成严重破坏。

什么是8463永利皇宫登录伪造?

8463永利皇宫登录伪造是指一种特定类型的合成媒体,其中图像或视频中的人物被替换为另一个人的肖像。

“8463永利皇宫登录”一词于 2017 年底由同名 Reddit 用户首次创造。该用户在在线新闻和聚合网站上创建了一个空间,在那里他们分享了使用开源换脸技术的色情视频。

此后,该术语已扩展到包括 Reddit 页面之前存在的“合成媒体应用程序”以及 StyleGAN 等新产品——“看起来不存在的人的逼真静态图像”,8463永利皇宫登录 检测公司威胁情报主管 Henry Ajder 表示深渊.

在最近的示例中,8463永利皇宫登录造假的声音可能听起来像是电话线另一端的老板(Facebook 的)马克·扎克伯格在剪辑后的视频中宣扬拥有数十亿人的数据是多么伟大,或比利时首相将冠状病毒大流行与气候变化联系起来在经过操纵的录音讲话期间。

一个带有缩写“Ai”的灯泡似乎像火箭飞船一样飞行

人工智能高管学院

亲自前往麻省理工学院斯隆管理学院

“这个词具有负面含义是可以理解的,但它对企业有许多潜在有益的用例,特别是已被知名品牌使用的营销和广告应用,”阿杰德说。

这就是为什么这个领域越来越多的人转而使用“人工智能生成的合成媒体”这一术语,Ajder 说。它足够广泛,可以包含 8463永利皇宫登录 的原始定义,但也足够具体,可以省略计算机生成的电影图像或经过 Photoshop 处理的图像等内容,这两者在技术上都是经过修改的示例。

如何制作8463永利皇宫登录伪造视频?

为了制作 8463永利皇宫登录 视频,创作者使用面部识别算法和称为变分自动编码器 [VAE] 的深度学习计算机网络交换一个人的面孔,并将其替换为另一个人的面孔,情感计算组麻省理工学院媒体实验室.

VAE 经过培训可以编码将图像转换为低维表示,然后解码将这些表征重新转化为图像。

例如,如果您想将任何获得奥斯卡奖的视频转换为8463永利皇宫登录伪造视频电影明星尼古拉斯·凯奇,您需要两个自动编码器 - 一个根据演员面部图像进行训练,另一个根据各种面部图像进行训练。

用于两个训练集的面部图像可以通过将面部识别算法应用于视频帧来捕获自然发生的不同姿势和照明条件来进行管理。

训练完成后,您可以将在不同面孔上训练的编码器与在尼古拉斯·凯奇面孔上训练的解码器结合起来,从而将演员的面孔出现在其他人的身体上。

8463永利皇宫登录伪造的示例

Burgund 和联合创始人、麻省理工学院 XR 创意总监 Francesca Panetta高级虚拟化中心,选择了一个可以说是更著名的8463永利皇宫登录伪造主题:前总统理查德·尼克松。

这对搭档2019 年的艺术装置,结合了尼克松辞职演讲的实际镜头,以及尼克松演讲撰稿人比尔·萨菲尔为应对登月失败而撰写的纪念演讲稿文本。结果是一段8463永利皇宫登录伪造的视频,尽管创作者试图对捏造的事情保持透明,但仍然欺骗了一些观众,让他们认为这是演讲的未播出版本。

“该项目的目的是尝试找到一种富有创意且令人回味的方式来展示8463永利皇宫登录假货的样子,”帕内塔说。 “并让人们意识到他们的存在以及他们的现实性。”

帕内塔和勃艮德与演员刘易斯·D·惠勒合作,大声朗读尼克松的各种演讲以及应急演讲,以获得正确的“总统”语气和节奏。然后录音被发送到Respeecher,专门研究合成语音— 在本例中,将演员的声音变成尼克松的声音。

精明的人工智能这家公司使用人工智能(特别是视频对话替换)来改变尼克松嘴部周围的区域、他的头部、面部和双手的运动,以匹配所说的内容。

“这肯定与‘按下按钮:创建 8463永利皇宫登录’相去甚远,”Burgund 说。 “事实并非如此。有些事情可以达到 80%,而且非常非常容易,但我们希望尽可能利用当前的技术,使其尽可能可信。”

Modulate(一家位于马萨诸塞州剑桥的公司)的工程师正在创建用于在线游戏和社交平台的“语音皮肤”。 Modulate的客户是在线体验平台(在线游戏)行业的公司。它维护着不断增长的人工生成声音的库存,游戏公司可以购买这些声音,然后将其提供给客户,作为游戏体验的一部分。

“这个想法是让人们自由地听起来仍然是真正的人类,真正的情感,仍然保持所有的控制,但有效地交换他们的声带,以便他们使用的声音只是一个自动匹配,”Modulate 首席执行官兼联合创始人 Mike Pappas,SB '14 说。

例如,如果玩家对自己的角色在游戏中的外观很着迷(例如抱怨的矮人或空灵的精灵),那么他们可以选择一种声音,让自己在与其他玩家交谈时听起来像该角色。

在其他情况下,那些受到骚扰的人(例如妇女或儿童)可以使用语音皮肤来确保他们仅在愿意的情况下才透露自己的性别或年龄。

帕帕斯说,在某些情况下,跨性别群体的成员会在在线论坛中使用更准确反映其身份的语音皮肤。

如何识别8463永利皇宫登录赝品?

虽然没有一系列步骤可以使某人完全免受8463永利皇宫登录造假的欺骗,但需要寻找一些东西来帮助破译您所看到的内容是否真实。

Groh 建议注意:

  • — 有人眨眼次数过多或过少吗?他们的眉毛适合他们的脸吗?有人的头发位置不对吗?他们的皮肤看起来是否经过喷绘,或者是否有太多皱纹?
  • 音频— 某人的声音是否与其外表不相符(例如,一个身材魁梧的男人,声音音调较高的女性声音)。
  • 照明— 人的眼镜在灯光下会产生什么样的反射(如果有的话)? (8463永利皇宫登录s 通常无法完全代表照明的自然物理现象。)

格罗说,让人们免受8463永利皇宫登录造假的最好方法就是曝光。为了支持和研究这个想法,Groh 和他的同事创建了在线测试,作为人们体验 8463永利皇宫登录 互动并从中学习的资源.

但如果您想亲眼目睹深度造假,它们并不难找到。事实上,Deeptrace 的 Ajder 解释说,很多 8463永利皇宫登录 内容都被贴上了 8463永利皇宫登录 的标签,因为创作者试图炫耀他们的作品。

Deeptrace 成立于 2018 年底,旨在提供检测 8463永利皇宫登录 图像和视频的功能(例如软件即服务)。 Deeptrace 还监控在线深度伪造活动,并协助删除针对客户的恶意深度伪造视频。

2019 年,该公司发布了一份关于8463永利皇宫登录造假现状的报告。它在网上发现了超过 14,000 个深度造假视频,比 2018 年增加了 100%。研究发现,96% 的 8463永利皇宫登录 视频都是色情内容,而且几乎所有视频都涉及女性。

报告指出,“这种增长得益于工具和服务日益商品化,降低了非专家创建8463永利皇宫登录伪造品的门槛。” “在政治之外,8463永利皇宫登录造假和合成媒体的武器化正在影响网络安全格局,增强传统网络威胁并催生全新的攻击媒介。”

谁、什么东西面临8463永利皇宫登录造假的风险?

观看的热门视频德克萨斯州参议员特德·克鲁兹的脸换成了演员保罗·路德的脸,或女演员詹妮弗·劳伦斯在金球奖上回答问题 - 但面对的是​​演员史蒂夫·布西密— 政治和好莱坞似乎应该成为打击误导性视频的重点领域,但正如 Deeptrace 的报告所示,操纵目标不再局限于政府领导人或著名女演员。

“8463永利皇宫登录造假不一定非要成为政客,”帕内塔表示同意。 “甚至可能是你的朋友。目标可能是你。不一定是名人。”

例如,通过录制预定的公开季度财报电话会议,可以将首席财务官的录音转变成听起来像是要求员工分享银行信息的紧急指令。或者想象一下类似的录音,但这次首席执行官宣布全公司裁员;市场反应和股市崩盘,都是因为8463永利皇宫登录造假。

“我并不是想在这里散播偏执狂的种子,而是我们试图对可能发生的事情采取现实的态度,”布尔贡德说。 “毫无疑问,有人正在研究如何以某些方式进行混淆……这是一场军备竞赛。”

Ajder 表示,目前最大的风险是诽谤。 8463永利皇宫登录 视频甚至不必那么好,只要这个人是可识别的,并且图形足够好,让观看者能够识别这个人并看到他们在做什么或在说什么。阿杰德说,这会留下印记,并且可能会损害某人的声誉,特别是如果他们的名字和面孔是负面视频或音频的一部分(无论是真实的还是深度伪造的)。

这是阿杰德提出的另一个问题:貌似合理的推诿。阿杰德说,8463永利皇宫登录假货不仅让人们有机会将假图像或录音伪装成真实的,它还提供人们有机会将真实事件视为虚假事件.

企业领导者可以采取哪些措施来保护公司和员工免受8463永利皇宫登录造假的侵害?

Deeptrace 采用 WITNESS 项目总监 Samuel Gregory 倡导的方法:不要惊慌。准备。

“在保护业务流程方面,您必须确定风险最明显的途径,”Ajder 说。 “也许这是您公司的电信基础设施,也许是您使用的视频会议软件。”

阿杰德建议:

  • 考虑在对话中使用语义密码,或者在通话开始时提出或回答的秘密问题。
  • 如果您有语音身份验证服务或生物识别安全功能,请询问这些提供商他们的工具是否是最新的。
  • 教育您的员工。解释一下8463永利皇宫登录造假攻击可能会变得更加频繁,并且没有检测它们的神奇公式。
     

“询问您的安全基础设施,”Ajder 说。 “了解薄弱环节可能存在,做好准备并了解技术解决方案可以融入该基础设施的哪些位置,以确保关键点的安全。”

在 Pappas 看来,每个人都有责任防范恶意8463永利皇宫登录造假。

“社会答案是我们都建立了免疫系统,”他说。 “我们开始问自己一些问题:向我展示这张图片的人是谁?它从哪里来?什么是明显的,什么是真正真实的?拥有提出这些问题的一般态度肯定会有所帮助。”

麻省理工学院媒体实验室的 Groh 表示,人们可以利用自己的直觉和智力来防御8463永利皇宫登录造假。

“你必须有点怀疑,你必须仔细检查并深思熟虑,”格罗说。 “这实际上很好:它迫使我们变得更加人性化,因为应对这些事情的唯一方法就是真正拥抱我们作为人的本质。”

准备好深入了解了吗?

测试你的8463永利皇宫登录造假技能。

使用麻省理工学院媒体实验室的人工智能工具进行实验深天使.

观看:发生月球灾难时.

阅读:'8463永利皇宫登录造假的最大威胁不是8463永利皇宫登录造假本身”,《麻省理工科技评论》。

阅读:8463永利皇宫登录造假的现状,来自 Deeptrace 的 2019 年报告。

阅读:机器学习,解释

了解更多信息 梅雷迪斯·萨默斯