AI可以修正假新闻吗?

1 min read
artificial-intelligence-fake-news
Artwork by Bruno Silva

蝠翼人、蓝皮山羊、双足无尾海狸、蓝宝石寺庙 – 这些是英国着名天文学家John Herschel爵士从南非的一个天文台把望远镜对著天空时目睹的一些奇观。或者,至少,这是《纽约太阳报》在1835年的一系列报道中报道的

这些报道引起了极大的轰动,报纸发行量从8,000份增加了一倍多,超过1,9000份。突然之间,每个读过这些报道的人都相信月球上有一群猖獗的蝙蝠人。

除了一个小细节外,没有一个是真的。这些故事是太阳报的编辑Richard Adams Locke 捏造的

这一个事件被作为 月球大骗局而载入史册,但如果所有这一切都发生在今天,我们会称之为别的东西:假新闻!

Donald Trump或许认为, 这个在过去几年里人气飙升的词是他发明的,但事实远非如此。假新闻已存在多年,但我们现在比以往任何时候都更担心它。我们是如何从基本上无害的 月球大骗局, 发展到披萨店丑闻所构成的 极严重威胁的

嗯,互联网的速度和规模让情况变得更糟了100倍。正如《纽约时报》 在今年11月上映的一个三部曲电影系列中所解释的那样,虚假 信息像 病毒一样 传播。

那您要怎么阻止这种病毒传播呢?

如果你问Facebook首席执行官Mark Zuckerberg,他很可能会重复 今年早些时候在美国国会上说过的话: :人工智能会解决这个问题。

但人工智能可以修正假新闻吗? 机器是否可以自动验证某些内容是真还是假? 更重要的是,人工智能能解决它最初推波助澜而衍生的问题吗?

人工智能,我们有一个问题

关于人工智能和虚假信息的文章很多,但人工智能在世界各地的假新闻制作和传播中扮演的角色,我们也么也说不完。

生命未来研究所(Future of Life Institute)的媒体与外展主管Ariel Conn详细阐述道:”当人工智能研究人员创建了一些程序,可以修改视频,使其看起来像是有人说了他们没有说的话,这让我们思考这项技术的伦理含义。”

美国 前总统Barack Obama的这个视频作为例子。它是南加州大学的研究人员为RadioLab的一集名为“即时新闻。”的实验而 制作的, 如果您在电脑或手机上看到此信息,你会相信吗?

RadioLab的这一集是2017年7月播出的。时间快进到2018年4月,仅仅几个月后,你就得到了 一个改进视频版本,这次是在Buzzfeed上作为公共服务公告而发布。事实证明:Obama并没有说Trump是“彻头彻尾的白痴”。是奥斯卡获奖电影制作人Jordan Peele 用他最令人信服的声音说的。这段假音频被令人信服地配在这位前总统的真实视频片段上。

用于制作这些视频的算法机器学习技术被称为deepfake,它允许任何人对几乎所有人(只要你有视频和音频记录)进行高度逼真的模拟。

但deepfake真正的问题是当人们停止使用这种技术将 Nicolas Cage添加到随机电影中, 然后如我们在上面看到的那样开始制作政治领导人说他们从未说过的事情的视频时。正如Ariel Conn所言:”操纵人们将变得容易得多,这非常令人担忧。”

那么人工智能在这一切中的立场是什么? 是治疗还是疾病?

artificial-intelligence-fake-news-gauge

修正坏消息

要知道人工智能是否可以帮助我们修正假新闻,我们首先需要了解机器学习是如何工作的。

机器学习是一门让电脑从数据中学习、识别模式并在最少人为干预的情况下做出决策的科学。其理念是让机器随着时间的推移提高表现,并变得越来越自动化。

因此,为了将这一点应用到我们对抗虚假信息的战争中,我们需要开发一种分析数据的技术,以正确判断一段内容是真的还是假的。然而,根据专家,包括Facebook的欧洲人工智能研究总监Antoine Bordes表示,这说起来容易做起来难:

“如果是关于识别图像中奇怪的东西,那是机器能做到的事情,但如果是关于解译文本是真的还是假的,那就是更深层次的技术了。” 标记真伪是复杂上许多的技术,而这还不是机器能做到的。“

为什么? 因为机器缺乏基本的人类技能,比如”理解、常识、以及将事物置于情境之中的能力”。

尽管如此,这并不意味着研究人员不会日以继夜地解决这个问题。在过去的几年里,关于这个主题的研究数量有了显著的增长,其中一些已经被证明是相当有成效的。

发现假新闻的最佳人工智能

麻省理工学院技术评论中,卡塔尔计算研究所的资深科学家 Preslav Nakov和一位关于媒体机构可信度的新研究的一位研究员写道,尽管存在各种怀疑,但他对使用机器发现虚假新闻表示乐观。尽管如此,他预测这种情况短期内可能不会发生。

在Nakov帮忙指导的研究中,他们使用机器无需人工干预就能分析的变量来训练他们的系统。他们对标题结构和词汇多样性进行了内容分析;评估网络流量;并通过衡量社交媒体的参与度来评估媒体组织的影响力。

在实验结束时,他们的最佳模型准确地以”低”、”中”或”高”可信度来标记媒体报导,这次准确率为65%。

但是,分析媒体的可信度和识别假新闻是一种微妙平衡。记者遵循 – 或至少应该遵循 – 谨慎的方法和行为准则,以便产生我们每天阅读的新闻。然而没有电脑可以理解新闻。

artificial-intelligence-fake-news-robot

全世界的人们和机器阿,团结起来吧!

“我相信人工智能在识别假新闻方面会越来越有用,但我们也需要提升人类的水平。最终,这将是机器与人类之间的团队努力。“

Facebook的欧洲人工智能研究总监Antoine Bordes

将人类与人工智能的最完美之处结合也许是我们最佳的希望。机器给我们带来了速度和扩展性,而人类则带来了理解 – 有了人类的理解,AI在评估文本准确性时就有考虑情境和细微差别的能力。这也使我们能够将更多数据输入系统并随着时间的推移改善其表现。

尽管如此,要著重强调的是,我们也在谈论新闻,这是一项以人为中心的活动,遵循严格的规则来获取真相。这就是为什么事实核查平台是这个假新闻拼图的重要一块。

我们采访了美国最知名的事实核查网站之一Politifact的执行董事Aaron Sharockman,讨论了人工智能在未来将扮演的角色,以及推动他们的真实性测量仪(Truth-O-Meter)的方法。

他们有11名全职记者,每天都在工作,从印刷或广播新闻中筛选出最重要的故事,以核实事实。

“我们要从那里做的第一件事就是问发言者你有什么证据证明这是真的? 在美国,如果你被捕,那么在被证实有罪之前你是无辜的。但在我们的网站这里,你被证明无辜之前是当作有罪的。如果你说了什么,你应该有事实来支持它或者说为它背书。“

然后他们依靠那些愿意公开的独立的和专业的消息来源。“从网站那里,写手(writer)会对判决或评级给予评论。我们使用了六个评级,”真实”一直到”荒谬”(彻头彻尾的谎言)。但写手最后不会决定评级。评级是由三个编辑组成的小组负责,他们扮演陪审团成员。“

人工智能能否取而代之?

好吧,Aaron Sharockman表示,一台机器不太可能有事实核查的算法,但它可以帮助提高效率,并将信息发送给更多的人:

“人们必须永远参与事实核查,帮助人们理解什么是真的,什么不是真的。” 它最终是一个以人为本的系统。然而,尽管如此,我认为电脑可以帮助提高这一过程的效率。所以,我所期待的是,电脑如何能够让我的事实核查人员,也就是使我们11名事实核查人员的其中一位有能力将他们所写的事实核查数量增加一倍呢?”

Sharockman进一步解释到:

“电脑如何将撰写事实核查所需的六小时减少至三小时呢? 其次,电脑和人工智能如何扩大事实核查的范围? 所以这有两种方式。一个简单的方法是我们要发布一个事实核查,但我们如何确保所有人都能看到它? 第二个是,无论我们做什么,错误信息都在继续传播,事实核查又如何能接近错误信息传播的地方呢? 这是否意味着错误信息在另一个博客上重复出现,那么如何将事实检查与博客联系起来呢? Twitter Bot在Twitter上回复发布糟糕链接的人吗? 所以我认为这些是我最兴奋的事情。我可以在我的预想中看到它们;我觉得这个技术会实现的。”

了解现实

最后,感觉好像我们仍在了解现实。随着模拟和现实之间的界限不断模糊,我们需要确切地知道我们在这项技术上的立场,以及它是口述真相还是检测真相。

未来生命研究所的Ariel Conn不太确定我们还有答案。”我觉得这会像我们面临的所有其他威胁一样。在网络安全方面,我们几乎完全需要掌握它。但是,一旦我们更好地了解其中的一些威胁,我们就能够创建非常好的程序来保护我们免受网络威胁。所以我认为人工智能将会是一样的,在最初由是如此,而它可能会掌握事实。但希望它能变得更加积极主动。”

今天,对于信息的辩驳是争论的焦点,而造成的损害是真实的。我们可不是在撩拨外星人入侵的类似恐惧 – 我的意思是,我很清楚谁会是第一个发布有关推文的人 – 但我们正在散布的谎言会对我们生活、民主和未来造成严重影响。技术只能带领我们走到半途:我们需要审视自己的恶习。

ArtboardFacebook iconInstagram iconLinkedIn iconUnbabel BlogTwitter iconYouTube icon