2017-03-16 14:25:22分类:行业资讯5083
【 3月16日消息】当前,行内每家公司都期待着在人工智能上有大发展。从谷歌到微软,再到苹果,再到三星,人工智能几乎是智能手机领域的热门词汇。
但随着这些系统变得更强大,功能更多,有必要确保它们不会被利用来针对特定人群。在美国德克萨斯州的西南偏南音乐节(SXSW)上,微软研究院的凯特克劳福德(Kate Crawford )向我们展示了她在人工智能领域的观点,认为这些庞大的数据系统在没有任何责任的情况会出现片面的执行。
卫报报道了这位研究人员对人工智能的看法,暗示了人工智能系统的广泛使用会引发极端主义。然而,并不是这些系统的使用本身,而是说人类的偏见会被以编码的方式融入其中,从而导致这些功能被错误之人所滥用。
该研究的发起人是一个专注于人工智能社会影响的研究社区。该研究人员列举了一个简单的例子,此前有相关的人工智能研究称可以根据某人的面部特征来预测犯罪行为。他们是怎么做到的?该系统通过照片来分析罪犯和非罪犯的面部特征,以预测是否会有犯罪行为。相关研究人员声称该系统没有任何偏见。
Crawford说:“一贯而言,当机器学习系统通过人为数据进行训练时,我们通常认为机器学习系统没有偏见。”“但我们的偏见是建立在样本数据的基础之上的。”
在西南偏南音乐节上,她解释了这一观点。克劳福德还暗示,社交媒体网站是如何变成开放注册的。她指出,来自剑桥大学的研究可以根据用户在Facebook上的喜好来预测其宗教信仰。研究人员在识别基督徒和穆斯林等用户信仰中,正确率达到了82%,同时在筛选民主党人和共和党人时也能达到同样效果。
这项研究并不是新研究,而是在2013年进行的。自此以后,人工智能就取得了巨大的进步。