地址: 深圳湾科技生态园5栋D座1302室
客服电话: 4008400488
邮箱: bd@rainxn.com
墨客星球
友情链接
© 2019 深圳雨本信息技术有限公司 | 粤ICP备17123203号 | 网站建设:中企动力 深圳
联系我们
被人教坏了的AI,我们要如何面对?
科技是把双刃剑,作为目前科技领域最前沿的人工智能技术同样不能免俗,它在帮助人们生活得更美好的同时,却也有可能破坏生活原本的美好。而就在今年的315晚会上曝光的一年打出了40亿骚扰电话的AI聊天机器人便是这么一个令人讨厌的例子。
据央视报道,相较于传统每天只能打出300到500个电话的人工外呼的营销方法,利用AI机器人一天最多可以打5000个电话,极大地提高了电话营销的效率,其中一家提供外呼系统的科技公司经理更是告诉记者,在过去的一年多时间里,他们筛打出去的电话共达40亿个,深受贷款、房地产、收藏品、金融、整形等三十几个行业的营销公司的欢迎。
然而,就在这些人因为效率提升、大把大把捞钱而兴奋的同时,却是无数被电话骚扰的人的苦泪:相信每个人都有在重要时刻被推销电话骚扰的经历。
实际上近些年来,AI被滥用甚至被用于犯罪的例子早已不是什么新鲜事了。
1
人工智能成为犯罪份子的帮凶
熟悉互联网黑色产业链的人大概都知道“撞库攻击”的概念。这个概念是指,很多用户为了图方便会在不同的网站使用相同的帐号密码,因此黑客可以通过从A网站获取的账号密码尝试登录B网址。实际上,根据CDN运营商Akamai公司发布了2018年《互联网现状/安全 – 撞库攻击》报告显示,从2017年11月到2018年6月短短不到一年的时间内,就出现了超过300亿次的恶意登录尝试。撞库攻击早已成为威胁互联网安全最大的威胁之一。
为此,如今越来越多的互联网产品开始采用图片验证码来避免黑客的撞库攻击,即在用户登录网站、提交账号密码的时候,会先跳出一些图片,让你按要求对其进行识别,只有识别正确才能够登录成功。由于这些图片验证码一般都有一个特点,那就是很容易被人类识别,却很难被机器识别。在这种情况下,黑客要想继续进行撞库攻击那就只剩雇佣大批人类人员,进行手工识别这一条路可走了,而人工识别的高额成本有可能迫使黑客放弃攻击,至少也可以降低其攻击的速度。
然而,道高一尺魔高一丈,随着图像识别技术的进步,犯罪份子却也开始将AI训练成了他们的犯罪助手。
大概是在2017年9月,浙江绍兴警方就公布,破获全中国首例利用人工智能技术窃取个人资讯的案件,当时警方成功截留10亿余组公民个人信息,缴获赃款600余万元。但令该案件成为舆论风口的则是犯罪嫌疑人利用一种叫“快啊”打码平台进行机器快速识别验证码, 该平台不仅极大地提高了打码效率,而且在准确率甚至能达到99%以上,毫无疑问,AI成了这场犯罪的最大帮凶。
2
AI换脸
这里,就要说一说大名鼎鼎的DeepFakes了。利用它的技术能够简单地让人们能够将图片、视频中的人脸换成另外一个人的脸,而且可以做到以假乱真,一般人由肉眼根本无法分辨出区别。
实际上人脸替换技术已经存在好多年了,不过传统的人脸替换需要技术娴熟的视频编辑和CGI专家花费大量的时间才能实现不错的效果。而现在,通过这项技术,通过深度学习技术,任何人只需要一个强大的GPU和足够的训练数据就能创作出以假乱真的人脸替换效果。
DeepFakes技术自诞生以来,就受到了好莱坞的一些数字特效公司的关注,对于好莱坞制片方和制作公司来说,这项技术可以大大提高后期制作的效率,而且大量节约成本。因为今后明星可以全程使用替身,后期用人工智能把脸换上去就行了,这样只需要向明星提供肖像费就好了,而且值得一提的事,电影公司如果连这点肖像费也不想给了,他甚至可以向《阿凡达》以及《阿丽塔:战斗天使》一样,直接创造一个虚拟主角就好了。
这是DeepFakes技术对社会积极的一面。然而,令人感到尴尬的事,DeepFakes最初被网友关注到却是因为它将“神奇女侠”扮演者Gal Gadot的脸蛋合成到了一段AV里面,搞得好像“神奇女侠”真的转行去拍AV了一样,实际上,传言称杨幂、迪丽热巴等众多明星也都受到了波及。另外,也有使用者用它来捏造针对政要人士的假新闻。
可想而知,一旦该技术被坏人恶意利用,用于攻击受害人的假视频、假新闻必定会在网上泛滥,对当事人带来困扰和不便我想也没有必要赘述了。实际上,deepfake之前甚至还惊动了美国五角大楼,他们通过美国国防部高级研究计划局(DARPA)委托全美各地的专家,想方设法检测各类视频的真实性。而最新消息也显示,deepfake在GitHub上也已经遭限制访问。
3
AI变声
想象一下,你儿子已经整整外出两年了,每次给他打电话,他都找各种借口不回家。然而,电话里的人或许并不是你的儿子,他只是伪装成你儿子的声音,你的儿子或许早已经不在这个世上了——这是最近热播的悬疑破案剧《冷案》里的情节。
这虽然只是一个电视剧,但利用AI变声进行犯罪活动离我们的真实世界其实真不远。
首先,利用AI合成的声音已经可以非常接近本人了。比如早在2017年蒙特利尔初创公司Lyrebird开发了一种语音合成技术,用很少的数据,训练一分钟,就能复制任何人的声音。特殊的是,这里面的模拟声音几乎可以以假乱真,连家人都分辨不出来。
而且值得一提的是,AI变声早就已经商业化应用了,比如《创新中国》节目解说部分就全程运用人工智能配音,AI模仿了已逝“配音大师”李易的声音。
“本软件仅供娱乐,请勿用于任何违法犯罪活动。”大部分AI变声软件其实都已经意识到了自己有被犯罪份子恶意使用的可能性。
AI犯罪,谁来负责?
技术本身是不分善恶的,但要看到底是谁在运用它,在哪些领域运用它,以及如何运用它。技术不会犯罪,让技术犯罪的依然是人类本身(抛开强人工智能不说,至少在目前的弱人工智能时代这个结论是成立的)。那么,AI犯罪,到底应该由谁来负责?是直接使用AI技术进行犯罪的人?还是提供AI技术方案的人?
对此,我们或许能从2018年6月的一个案件判例中发现端倪。据悉,这也是全国范围内针对撞库打码案件的首次判例。
该案件中,叶某某编写了用于批量登录网站账号、密码的软件供他人使用,并收取服务费用。张某某为组织多名“码工”协助叶某某在批量登录账号密码时,对图片验证码进行识别(俗称“打码”),并从中赚取好处费。谭某某下载使用了这款软件后,成功获取大量淘宝账号、密码,并将账号密码出售给他人,获取违法所得25万元,仅从其电脑上查获的淘宝账号密码就有2万余组。
最终,余杭区人民法院对此案作出判决,被告人谭某某因犯非法获取计算机信息系统数据罪,被判处有期徒刑三年,缓刑四年,并处罚金人民币四万元;被告人叶某某因犯提供入侵计算机信息系统程序罪,被判处有期徒刑三年,缓刑四年,并处罚金人民币四万元;被告人张某某因犯提供侵入计算机信息系统程序罪,被判处有期徒刑三年,缓刑三年,并处罚金人民币三万元。
由此可见,不管是直接利用技术犯罪的人,还是提供技术或者服务的人都没能逃脱法律的制裁。
由此,我们或许也应该得出另外一个结论:对AI犯罪链条上所有参入者都进行处罚,才有可能避免AI技术的滥用。