首页 > 科技

是不是同志 看脸就知道 史丹佛AI研究惹议

作者:杨晓玲 来源:法律法规网 2017-09-13 10:50:45

随着科技的进步,人工智能的应用越来越广,也让我们的生活越来越方便,不过当人工智能技术侵入了私人领域时,掀起的惊涛巨浪令人开始反思科技到底该怎么使用,人类的底线究竟在哪里。最近,史丹佛大学发表了一份用人工智能技术...

 随着科技的进步,人工智能的应用越来越广,也让我们的生活越来越方便,不过当人工智能技术侵入了私人领域时,掀起的惊涛巨浪令人开始反思科技到底该怎么使用,人类的底线究竟在哪里。最近,史丹佛大学发表了一份用人工智能技术来辨认谁是同志的研究,就引起轩然大波。

1.jpg

一名女子将支持LGBT族群的彩虹旗画在自己的脸上。近日,史丹佛大学利用人脸辨识技术找出谁是同志的研究,引起轩然大波。

用AI辨识同志脸  

近日,史丹佛大学的研究人员在《*格与社会心理学期刊》发表了一份研究,描述他们如何成功利用人工智能技术辨识出照片中的主角是不是同志。然而这份研究一公布,马上受到LGBTQ团体排山倒海而来的批评,他们炮轰这份研究是“垃圾科学”,且批评这份研究缺乏代表*,不仅展现了种族歧视还将一个人的*向二元化,整份研究“危险又充满缺陷”。

目的不在判别同志

面对外界的批评,研究人员表示这是LGBTQ团体的“膝盖反应”,他们的目的并非要判别谁是同志,而是要大家小心人工智能的力量。

2.jpg

史丹佛研究人员从美国受欢迎的约会网站取得照片,再通过人工智能技术去捕捉照片中主角的脸部细微特征,借此判断对方是不是同志。

从约会网站上拿照片

回到这份充满争议的研究,史丹佛大学心理学家柯辛斯基(Michal Kosinski)博士和电脑科学硕士王以伦(音译,Yilun Wang)合作,从一个受欢迎的美国约会网站上拿到了1万4,776名使用者公开的照片共3万5,326张。随后,他们利用“深层神经网络”和脸部辨识技术训练演算法去侦测照片中主角脸部的细微特征。

男同志的下巴较窄

在其中一项实验中,研究人员拿两张照片供演算法辨识,最后发现演算法可以辨识出谁是男同志,且成功率高达81%。在女*方面,成功率则是71%。研究人员表示:“同志的脸往往长得和*别典型相反,男同志的下巴较窄,且鼻子较长,女同志的下巴则比较大。”

并非所有情况都成功

不过,这套演算法并非在所有情况下都可以有这么高的成功辨识率。在另一项实验中,研究人员要演算法挑选100名“最有可能是同志”的男*,但演算法最后错失了23人。

还是比人类厉害

无论如何,人工智能都比人类还厉害。一般人平均在辨识男**向上只有61%的成功率,女*方面则是54%。

3.jpg

研究人员用来供人工智能分析脸部特征的照片,全部是取用自美国受欢迎的约会网站。

研究限制:白人、*向二元化

报道中提到,这份用人工智能技术辨识同志的研究,是该领域第一份这么做的研究,自然也出现了许多限制。举例来说,研究中的照片以白人为主,且研究人员拿的是约会网站上的照片,这些照片本来就比较可能显露主角的*向。

再者,研究中的*向两极化,只有同志和异*恋两种,不足以代表LGBTQ族群。

住在美国  年龄低于40岁  

没有参与研究的英国法尔茅斯大学人工智能研究员库克(Michael Cook)说:“(这份研究中的)每个人年龄都低于40岁、住在美国,而且愿意把自己和喜好公布在网站上。”

“这群人可能和不同年龄层、不同国家、不同恋爱状况下的人相比非常不一样。”

4.jpg

在对LGBT族群不友善的俄国,无畏歧视的LGBT分子高举彩虹旗上街游行。

简化*向光谱

此外,库克补充道,研究人员收集到的*向是基于这群使用者在约会网站上说他们想要找“男*”或是“女*”:“这么做大大简化了人们现实生活中的*别和*向光谱,这也代表去除了诸如双*恋、无*恋,还有不确定自己的*向与尚未出柜者的资讯。”

这份研究“很危险”  威胁LGBT的权利

英国公益组织“隐私国际”(Privacy International)技术官帕勒登鲁本(Dana Polatin-Reuben)直指这份研究“很危险”,因为研究声称的辨识准确度“威胁到LGBT族群的权利,在许多情况下,也威胁到了那些活在压迫中的LGBT族群的生活”。

“这份研究暗中假设*向的僵化和*别的二元化,排除了那些非二元化的*别认同或*向。”

5.jpg

图为史丹佛大学校园一景。HRC研究主任约翰逊表示,史丹佛大学应该和这样的垃圾科学保持距离。

研究遭批不是科学

美国两大LGBT人权团体Glaad和HRC也公开发表联合声明,严词抨击这份研究。

Glaad首席数位官哈洛伦(Jim Halloran)说:“这份研究不是科学也不是新闻,不过描述了约会网站上的美感标准,忽略了LGBTQ族群的巨大划分,也忽略了非白人、变*人、老人和其他不想把照片上传到约会网站上的LGBTQ族群。”

“这种鲁莽的研究可以做为一种武器,伤害异*恋和那些深陷出柜危险状况的同志。”

警告史丹佛  和垃圾科学保持距离

HRC研究主任约翰逊(Ashland Johnson)表示,他们在好几个月前就已经警告过史丹佛大学。约翰逊说:“史丹佛大学应该和这样的垃圾科学保持距离,而非把他们自己的名声和信誉借给这种有危险缺陷,并且让全球比先前变得更糟和更不安全的研究。”

6.jpg

在遭到各界抨击后,研究人员出面解释,为何通过人脸辨识技术可以判别一个人的*向,这要从胎儿在子宫中的发育讲起。

只有科学可以反驳科学

面对各界的攻击和质疑,研究人员批评这些指控“太早下判断”。他们在声明中写到:“我们的发现有可能是错的...但是,唯有科学数据和复制可以反驳科学发现,而不是一群缺乏科学训练的有心律师和传播人士。”

“无论如何,如果我们的结果是正确的,Glaad和HRC的代表膝盖反射般地驳斥科学发现,才会让这些组织努力去拥护的那群人陷入危险。”

为何可从脸部看*向?

研究人员也解释到,为何人工智能技术捕捉到的脸部细微特征,可以辨识出一个人的*向。

随着胎儿在子宫中发育,他们会处于各式各样的贺尔蒙中,尤其是睪酮,这些贺尔蒙在型塑脸部上扮演关键角*,对一个人的*向也有影响。研究人员认为他们的技术可以通过前者捕捉后者的细微讯号。经由其他技术的配合,研究人员在决定男*的*向上会将注意力集中在鼻子、眼睛、眉毛、脸颊、发线和下巴,女*方面则是关注鼻子、嘴角、头发和脖子的线条。

7.jpg

除了这次的研究,史丹佛大学心理学家柯辛斯基博士先前利用Facebook的数据设计的心理测验,也受到大众的关注与检视。

过去也有争议研究

其实,柯辛斯基博士过去的研究也充满争议,他曾经利用Facebook的数据设计了一个心理测验,依靠Facebook用户的档案去侦测用户的*格。去年,美国总统特朗普(Donald Trump)的竞选团队也利用类似的技术锁定选民,引起不少争议。

警告决策者  科技的力量很强大

无论如何,研究人员表示他们之所以做这样的研究,目的不在辨识同志,而在展现科技的力量,借此警告决策者这种力量有多强大,未来将不可避免地侵犯个人隐私。

上一篇 下一篇

I 热点 / Hot