当AI表现出种族或性别歧视,除了震惊我们还能做什么?
人工智能AI
从亚马逊到Facebook,再到谷歌和微软,全球最顶尖、最有影响力的技术公司都将目光转向了人工智能(AI)。
好多人都在不停地讲:AI和机器学习将颠覆每个行业,所有的工作都将消失,巴拉巴拉……
举一个最简单的例子,只要上传一张照片,机器就可以识别出来,到底他是马云,王宝强还是奥巴马。
然而,斯坦福大学科学史教授 Londa Schiebinger却在最新发表的nature杂志上的文章表达:AI可以有性别或者种族歧视(AI can be sexist and racist) 。
有三个具体的例子:
1.谷歌翻译(Google Translate)在将西班牙语新闻翻译成英语时,通常将提及女人的句子翻译成“他说”或“他写道”。
2.同样都是新娘,AI算法也会进行种族歧视。算法通常只能将左边的图片识别为“新娘”。计算机视觉算法会把传统的身着白色婚纱的美国新娘标注为“新娘”、“礼服”、“女人”、“婚礼”,而北印度新娘的照片则会被标注为“表演”和“戏服”。
3.单词嵌入——一个用来处理和分析大量自然语言数据的流行算法——会把欧裔美国人的姓名识别为“正面”词汇,而非裔美国人的姓名识别为“负面”词汇。
导致AI产生偏见的一个主要因素是训练数据。大多数机器学习任务都是使用大型、带标注的数据集来训练的。
研究者们通常会利用网站来构建数据集,例如使用特定的单词搜索Google Images或Google News,或是从维基百科等易于访问的信息网站上收集。
这种方法会在无意中产生出包含了性别、种族和文化偏见的数据集。
通常来说,会有一些人群被代表过度,而另一些则代表不足。ImageNet推动了计算机视觉研究,但是其中超过45%的数据来源于美国,而美国人只占世界人口的4%。相反,中国和印度加起来只占其中3%的数据量,而两国人口却占了世界人口的36%。
在医学领域,机器学习的预测特别易受训练数据集中的偏差影响,因为医学数据的生成和标注都相当昂贵。去年,研究者使用深度学习从照片中识别皮肤癌。他们在包含129450张图片的数据集上训练了算法模型,其中60%是从Google Images上搜索而来。但是其中只有5%的图片是深肤色人群,而算法没有在深肤色人群中测试过。因此该算法在不同人群中的表现可能相差极大。
澳洲哪个学校的计算机人工智能专业好呢?
AEMS小编来帮你解答!!!
澳洲计算机专业
要上就要上认证课程,让自己今后的职业评估畅通无阻。计算机专业是由澳洲计算机协会ACS来进行评估的。
总结
对于学校的申请、专业的选择,有任何问题,都可以咨询AEMS的教育顾问!
有了AEMS的帮助,不管你在国内还是澳洲,澳洲学习对你不再是梦想!!
(编辑:Yu)
电话:08-93225555
精彩回顾
请点击阅读:
《AEMS公司介绍》
《解析澳洲技术移民EOI邀请规则,递交EOI后什么时候获邀?》
《西澳187RCB申请重开,究竟目前什么地区目前不能申请187.》
《【政策解读】大胆申请你的旅行签吧!就算有8503,还是可以申请澳洲签证。》
《移民局提醒:谨慎选择移民中介。AEMS有多少位持牌移民律师呢?》
《海风夕阳,美酒音乐。在西澳海边竟然有一场这么高规格的活动。》