人类本性都有傲慢与偏见,那么人工智能会有偏见吗?
人们总有或多或少的刻板印象,如国籍、肤色、学历、性别等。在人们的心目中,地方团体往往是陈词滥调。例如,女性应该温柔听话,工程师和技术人员大多是男性,白人比黑人有更高的智力等等。每个人都是个体。人们对他人有不同的态度和看法是正常的。出乎意料的是,人工智能也有一种“刻板印象”。
成都创新互联公司是一家专业提供平塘企业网站建设,专注与网站设计、成都做网站、H5场景定制、小程序制作等业务。10年已为平塘众多企业、政府机构等服务。创新互联专业网站建设公司优惠进行中。
最近,Facebook的人工智能实验室进行了一项有趣的新研究。他们发现,人工智能偏见不仅存在于国家内部,也存在于国家之间。
研究人员测试了五种流行的对象识别算法,包括Microsoft Azure、Clarifai、Google Cloud Vision、Amazon Rekognition和IBM Watson,以了解每个程序的工作原理。用于测试的数据集来自不同国家的家庭,包括穷人和穷人,包括117个类别,从鞋子、肥皂到沙发。
在这项研究中,研究人员发现,当被要求识别低收入家庭时,目标识别算法的准确度比高收入家庭低10%。随着月收入的增加,误差也会增加。特别是对于谷歌、微软和亚马逊来说,低收入家庭识别算法的准确性很低。
与索马里和布基纳法索相比,该算法识别美国产品的精度提高了15-20%。
这种现象有很多原因。最常见的原因是,在创建算法时,它们经常受到相关工程师的生活和背景的影响。这些人大多来自高收入阶层的精英阶层。他们的想法和概念是基于他们的想法和概念。人工智能算法也基于它们的思想和概念。
人工智能具有强大的计算能力。在该算法的基础上,很容易获得海量数据和识别信息。然而,令人担忧的是,它的偏见不仅在确定对象方面有偏见,而且在种族和性别歧视方面也有偏见。
研究人员测试了微软、IBM和Facebook的人脸识别能力。他们发现白人男性的准确率高于99%,而黑人女性则有47%的错误率。
亚马逊开发了一个人工智能程序来阻止简历的选择,这也显示了对女性的歧视。选择简历后,男人比女人多。包含女性角色的简历的权重将会降低,甚至两所女子学院的研究生评分也会降低。可见,人工智能也具有自我选择和不可磨灭的“歧视”。但另一方面,人工智能似乎是极其平等的。例如,最近发射的人工智能机器人,它完全可以实现每个人的态度是平等的。它不会改变你对你的态度,因为你有钱,还有你的性。他会像一个人一样温柔地提出问题和回答问题,并及时接受批评。电话机器人好不好用?许多公司都争先恐后地回答这个问题。
文章标题:人类本性都有傲慢与偏见,那么人工智能会有偏见吗?
标题链接:http://azwzsj.com/article/pgdegi.html