旗下平台: 媒体+ 驱动号 阿里汽车 非常在线

你如果想打我,AI可不一定答应

  • 来源: 驱动号 作者: 智能相对论 2018-06-16/16:49 访问量:
  • 你如果想打我,AI可不一定答应1.jpg

    文|柯鸣

    来源|智能相对论(aixdlun)

    如果有一天,你想打我(贱兮兮),你以为一拳头挥过来就完事了吗?

    现在可不那么简单了。现在你如果想要打我,不仅要问问我爸妈同不同意,还得问问AI答不答应,可能你还没动手,就已经被我的AI所拦截下来了。

    没错,“暴力检测”成为了当下的一个热门。在人群中实时检测“暴力行为”成为了现实,如果你想打架,最好先看看AI同不同意。

    “检测暴力”的AI

    这种能够检测“暴力行为”的AI系统由英国剑桥大学、印度国家技术研究院和印度科学理工学院的研究人员研发,此类AI技术利用悬停式四轴飞行器上的摄像头来检测每个人的身体动作。然后,当系统识别出攻击性的行为,如拳打、脚踢、刺杀、射击、掐脖子等时,它就会发出警报,准确率达到85%。它不识别人脸——只是监测人们之间可能的暴力行为。

    你如果想打我,AI可不一定答应2.jpg

    借由无人机实现AI“暴力检测”

    这个系统可以扩展到自动识别非法越境的人,在公共场所发现绑架事件,并在发现暴力行为时发出警报。因此,在某种程度上,这种自主间谍无人机可以帮助警察压制犯罪,或帮助士兵在无辜群众中找出敌人。

    AI在检测暴力动作时,主要分为五个类型:扼杀、拳打、踢踹、枪击,以及刺伤。系统先用FPN(特征金字塔网络)检测在场的所有人类,并标记出头、上肢、下肢三个部分的14个重要位点,画出人体的骨架。然后,SHDL网络可以分析四肢朝向等数据,判断那些人是不是在使用暴力。

    你如果想打我,AI可不一定答应3.jpg

    可用于检测公共区域或大型聚会中的暴力分子姿态估计pipeline

    当然,AI暴力检测的效果也与数据处理人数有着很大关系。一般来说,系统需要处理的人数更少时,准确率会更高。如只需处理一人时,系统准确率可以达到94.1%,如果人数超过了十人,准确率下降到仅79.8%。同样,其在检测扼杀、拳打、踢踹、枪击,以及刺伤五种暴力行为时,也存在着准确率差异。

    你如果想打我,AI可不一定答应4.png

    检测不同暴力行为的准确率

    你如果想打我,AI可不一定答应5.png

    检测不同人数时的准确率

    另一方面,无人机的应用也存在着一定的使用条件限制问题。在真正应用场景中,无人机无法直接靠近斗殴人群,只能实行高空检测,而这一定程度上降低了能见度和检测准确度。

    AI检测暴力,依然存在着众多问题

    AI检测在人工智能领域早已经不是新鲜事。不论是此前的Dextro公司利用机器学习来解读视频的声音和图象信息,还是谷歌解决鸡尾酒会问题,并成功推出新一代Google Assistance,AI检测一直是各领域应用的重要方式。

    在云端执行推理有潜在的安全和隐私风险,因为要将人们的视频传输到第三方计算系统中。当AI渗入日常生活的监测过程之中,智能相对论(aixdlun)分析师柯鸣认为,其依然就几个问题“有待解决”。

    1.泛滥的用户信息泄露

    2017年,是数据泄露极为猖獗的一年。根据金雅拓(Gemalto)近期发布的一份报告“2017 Poor International Security Practices Take a Toll”显示,2017年仅上半年被盗的数据,就已超过2016年全年被盗数据的总量。

    2017年1月到6月,平均每天有1050万条记录被盗。尽管很多数据泄露来自于外部黑客攻击所致,但所造成的记录被盗或遗失,仅占13%;相比之下,内部恶意泄露、员工疏忽无意泄露等造成的却占19亿被盗数据中的86%。

    早在此前的Cambridge Analytica丑闻造成了8700万人的信息泄露,并且对2016年唐纳德·特朗普参与美国总统竞选的结果造成了影响。Facebook数据泄露事件再次向人们展现了信息泄露的危害,“被行为”或是“诱导行为”成为许多数据公司利用用户信息进行的不良操作。

    可想而知,如果当AI监测暴力系统被恶意使用,其带来的风险更是相当严重。诸如此类的面部识别技术,如亚马逊的Rekognition服务,已经被美国警方采用。这些系统经常受到高误报率的困扰,或者根本就不准确,所以像这样的技术要和无人机结合还需要一段时间。

    2.“大数据杀熟”

    从目前众多AI应用的表现来看,隐私数据的泄露所导致的“大数据杀熟”是一个不容忽视的问题。

    信息泄露不仅会威胁到一个普通用户的网络账户安全,更会直接影响到其现实生活中的方方面面。最近闹得沸沸扬扬的Facebook用户数据泄露更是让全球用户纷纷自危,不少知名人士更是宣布从Facebook退出,扬言保护自身隐私数据安全。

    在前段时间,滴滴被曝光对用户进行大数据杀熟,一时之间舆论纷纷,显然被人区别对待的感受不是每个人都喜欢,尤其是在加价的情况下。虽然之后滴滴很快对其进行了澄清,但大数据杀熟这种方式却已经被世人获知。

    那么什么是大数据杀熟,通常而言,这种行为指的是通过大数据来判断用户消费潜力,当判断用户为高消费者时,则会对用户进行区别对待,提高其消费价格,比其他用户花费更多资金才能享受到相同的商品及服务。

    互联网上的杀熟早就不是什么新鲜的事情,自互联网诞生以来,这种行为便一直存在。而在2000年,也发生了一件令人瞩目的杀熟事件。有亚马逊用户反映,在其删除浏览器cookies之后,之前浏览过的DVD商品售价从26.24美元降至22.74美元。

    此消息一出,备受舆论压力的亚马逊只能出来解释,称这项功能只是向不同顾客展示的差别定价实验,绝对与客户数据没有关系。最后也只能努力公关,才度过了这个信任危机。如今的一些互联网公司,显然已经忘记了亚马逊当年的遭遇,试图重蹈覆辙。

    3.AI监测恐侵犯主体的“知情权”

    在AI监测的过程中,“知情”确实成为了一个伦理争论的焦点。“如何监测”、“是否知情”争议不断。诚然,随着行为识别技术的不断发展,许多识别技术都可以实现“非受控性”:即主体无需配合,依然可以实现精准识别。

    这无疑将AI伦理提到了一个新的高度。信息不再为我所有,确实让人细思极恐。那么,在公安与刑侦领域,AI监测尚可让人信服,但在其他民用甚至是商用领域,如何平衡好“获取信息”与保障和满足受众基本的知情权将会成为一个重点和难点。

    显然,许多大公司在此类“获取信息”与“保障隐私”两者中积极寻求平衡。Facebook首席运营官雪莉·桑德伯格(Sheryl Sandberg)宣布为了响应欧盟即将于五月份生效的新隐私法规,Facebook将让其20亿用户更容易地管理自己的个人数据。

    在欧盟,将于今年五月份实施的《通用数据保护条例》(General Data Protection Regulation,GDPR)是自互联网诞生以来对个人隐私数据法规的最大一次修订。该条例旨在给予欧盟成员国内居民更多管理自身信息的权限,并规定了公司使用用户数据的方法。

    总的来说,AI监测暴力的出现,为安防与刑侦领域提供了一个便捷之道。但是,作为极为敏感的领域,精确性的问题依然是不可忽视的。毕竟,冤枉一个好人永远都不是一件好事。

    智能相对论(微信id:aixdlun):深挖人工智能这口井,评出咸淡,讲出黑白,道出深浅。重点关注领域:AI+医疗、机器人、智能驾驶、AI+硬件、物联网、AI+金融、AI+安全、AR/VR、开发者以及背后的芯片、算法、人机交互等。


    赞(0)

    驱动号 更多