色情演员识别?绝对是人脸识别最糟糕的应用
日期:2023-02-10 17:18:28 / 人气:225
不久前,一个德国的华裔顺序员声称本人曾经开收回一款使用顺序。该顺序经过使用人脸辨认技术,与各大社交媒体上发布的照片停止重复核对,从而可以辨认出网络淫秽作品中呈现的女性。此言论一经发布,便在微博上惹起了轩然大波,评论区的网友们也喝彩雀跃起来。不久后,耶鲁大学法学院蔡中曾中国中心的一位名叫Yiqin Fu的助理研讨员又将这一音讯发布到了推特上,并且翻译成英文,让全世界的人都晓得这个音讯。详细内容如下:一个目前生活在德国的华裔顺序员说,他和小伙伴经过对成人视频和社交媒体中团体材料照片停止穿插援用,最初在世界范围内成功地辨认出十万余名AV女演员。开发该顺序的目的在于协助人们核实他们的女小伙伴能否出演过成人影片。依据原微博中的评论,他们从Pornhud和xVideos等成人视频网站搜集了100多TB的视频数据后,将这些数据与Facebook、Instagram、抖音、微博等社交媒体上的照片停止重复比照,最初确认了10万多个色情演员的身份。实践上,没有人真正见过这个使用顺序,并且开发者的身份也不断是个谜。虽然他宣称本人叫Li Xu,但其真实性并未失掉证明。不过,这一旧事依然在坊间传播着,毕竟,它是有关于色情业的。图片来源:截屏自Yiqin Fu on TwitterLi Xu进一步证明道,他方案在微博上发布与该顺序相关的数据库形式和一些技术细节。但是,这一方案最终也未能付诸于理论,由于他取消了事先的直播方案,原本他计划经过这场直播来答复媒体的成绩。除此之外,他还把整个项目连同一切数据全部删除了。他之所以这样做,与其说是在反思后做出了愈加明智的判别,倒不如说是网络言论的后果。在社交媒体上,大家关于这一事情也讨论得如火如荼。但是大局部人在评论时关注的却是这些成绩:真的做出了这个使用顺序吗?它的效果好吗?这个团队做这个顺序时看了多少A片啊?他们本人有女小伙伴吗?不言而喻,这些言论都偏离了这一事情的重点。我们应该讨论的是将人脸辨认顺序使用到色情业究竟会带来哪些危害,并且我希望每团体都能知道这一点。只不过是“冰山一角”实践上,想开收回这样一款使用顺序也不是不能够的。但是,还是有很多人诘问究竟有没有做出这个顺序以及它的身份辨认能否精准等成绩。这些人的疑心有点多余,其实我们基本不用爲这样一款使用顺序的呈现感到诧异。早在两年前,媒体就对相似事情曾收回过正告。事先,Pornhub和xHamster这两大成人视频网站就开端使用人脸辨认技术,自动给站内视频贴上标签、停止分类。他们把这一技术的使用称爲“行将来临的隐私噩梦”。除此之外,在俄罗斯,Findface这一相似顺序也曾用于对性打工者和色情演员停止人肉搜索。该技术异样是经过将女性的面部特征与俄罗斯社交媒体平台VK上的团体材料婚配,从而停止辨认。所以说,这一技术的使用并不新奇,也非首创。图片来源:unsplash.com/@joelb并非每团体都遭到强无力的数据维护法的庇护刚开端,Li Xu不断以为本人的行爲并没有守法,由于他觉得本人并没有把这些数据公之于众,并且从事性打工在德国是合法的。色情产业在德国的确是合法的。但是,在未经赞同的状况下,搜集并处置别人的隐私数据(尤其是生物特征数据)相对是守法的。在现行的《通用数据维护条例》中,欧盟对准许处置团体数据的合理理由做出了多项规则。很分明,在这一事情中,团体数据的获取并没有获得对方的赞同,所以更不存在任何合同义务或许公共利益。要想取得合法权益,似乎难上加难,由于在这一案例中,他们对女性停止人肉搜索的独一目的,是让男人监控他们的女小伙伴或许妻子,看看她们有没有拍过淫秽视频。照片是极端敏感的生物特征数据,经过运用特殊技术对照片停止处置,可以以此对真人停止辨认或许认证。关于欧盟国度的公民,以及其他数据维护机制较爲完善的国度居民来说,这能够是一个好音讯。但是真正的成绩在于,那些淫秽视频的观看者与各大社交媒体平台的用户却来自于世界各地。到目前爲止,世界上并不是每一个地域都有齐备的数据维护法。即便有,若要将现存的法规执行下去也需求消耗少量的工夫与财力。此内在一些国度中,由于色情行业的合法性遭到限制,或许存在许多不确定性,因而AV演员们也命途多舛,她们拍摄色情影片也经常遭到群众诟病与凌辱。并且在这些国度中,要麼基本就没有相关的数据维护法;即便有,其法律效能也缺乏以用来维护此类特殊案例。性别化监控的要挟越来越大做这个顺序的最终目的是辨认出淫秽视频中的女性,并将她们公之于众,从而侮辱或许骚扰她们。依据推特上关于这一事情的翻译和报道,开发这款使用顺序的初衷是让男人能反省他们的女小伙伴或许妻子,看看她们有没有出如今不雅视频中。在大少数状况下,AV演员都会运用艺名,这关于那些非职业演员,以及那些需求将这一打工与她们的团体生活、家庭和其他事业分开的人尤爲重要。但是,应用人脸辨认技术来对AV女演员停止人肉搜索,这一行爲不只极具冒犯性,而且也严重进犯了别人隐私。更严重的是,这种方式是对女性的监视。其实,这一事情的发作并非个案。有针对性的网络骚扰也并没有止于Gamergate事情,尔后也时有发作。这样的骚扰行径不只会影响到女性,同时也会影响其他弱势群体在网络上自在表达的权益。实践上,所谓的“跟踪软件”目前也正在市面上悄然衰亡。在婚姻或许恋爱关系中,有暴力倾向的一方会间接或许直接购置这种软件,并且用它来机密监控现任或许后任。另一个与此相似的案例就是深度假造技术,围绕这一技术的讨论也如火如荼。但是,目前该项技术的大局部研讨和报道所关注的依然是它的运用办法及其政治影响。固然,这两方面的确很重要。但是我们更应该留意到的是,大局部人在应用深度假造视频技术做什麼。他们正在做的是应用该技术把女性的脸拼接到色情影片中,并以此来骚扰和侮辱她们。其实,早在古代的监控技术呈现之前,女性就不断生活在男性甚至整个社会虎视眈眈的目光下。于是,女性的身体、一举一动,以及她们的参与权和自主权都遭到了紧密监控。近年来,相关学者也屡次指出,随着大数据和机器学习技术的开展,带有性别歧视颜色的监控行爲将会以更多的方式在社会上呈现,其水平也会大大加深。图片来源:unsplash.com/@tinaflour最初,运用相似算法“永远”不能处理成绩开发这一软件的顺序员在认识到群众的激烈支持之后,立刻补充道,女性们也可以运用这款使用顺序来辨认“复仇色情片”。可是,他如今才把这一想法说出来,真的是在爲色情复仇中的受益者着想吗?不少人对此深表疑心。确实,从技术层面下去讲,这一想法的确行得通。由于假如某个算法可以经过社交媒体来辨认色情演员,那麼它也就能找出那些遭到报复的女性,从一开端,这些女性出如今不雅视频中就并非出于自愿。但是,在实践操作进程中,这一技术弊大于利。当然,要想找出复仇色情片不是什麼大成绩,真正的成绩在于,受益者将会蒙受哪些挣扎与伤痛。找到复仇色情片后,她们该如何把这些图像或视频从相关平台上撤上去;假如她们的家庭住址和电话号码被地下了,她们该如何保证本身平安,如何面对将来不时的骚扰行爲,并且法律对此又不论不顾;最初,这样的事情发作后,她们又该如何面对本人的家人、小伙伴和同事。但是面对这些成绩,人脸辨认技术也毫无用武之地。总而言之,假如要想避免被拍复仇色情视频,很好的预防手腕就是维护好本人的数据和隐私,在分享穿着表露的照片时一定要小心慎重,经过平安的途径分享。反正只需记住以上几点留意事项就足够了,没必要再糜费工夫求助于人脸辨认软件。
作者:优游国际平台
新闻资讯 News
- 当宋氏姐妹年轻时,她被拍成老照...07-13
- 骆驼祥子的悲剧在于,他的命运早...07-13
- 洪晃:我妈妈是一个名副其实的名...07-13
- 成功忽悠半个世界,诈骗500亿美元...07-13