logo

行业新闻

歧视历史竟延伸至人工智能领域

点击数:3925来源:发布时间:2016-06-29


      人工智能极大的方便了人们的生活,却也在某些领域出现偏差,比如美国这个科技始终保持在世界前沿的过渡,其人工智能的应用覆涵的领域非常多,可一些问题渐渐显露出来,比如其种族这个“享誉”世界的历史也被延伸到了智能领域。




      埃隆·马斯克和 Nick Bostrom 等一些科技界大牛向世界发出了警告:人工智能的存在对人类是一种潜在的威胁,他们把机器智能超越人类智慧的临界点叫做「奇点(the Singularity)」。人们已为此投入了数百万美元,并举办了大批国际会议。


      但这种恐慌情绪让人们忽视了今天人工智能的真正问题,其实它可能已经在加剧工作场所、家庭、法律及司法系统的不平等。支持「智能」系统运转的机器学习算法很多在编写时就被加入了性别和种族歧视以及其它形式的不平等观念,这决定了我们被分类和接收广告的方式。


      比如去年的那次事件:谷歌有个照片应用,可以自动在电子相册中把标签分配到不同照片上,用户发现它会把黑人的照片归类为大猩猩。谷歌做出了道歉,表示它并不是故意的。


      但类似的错误也出现在了尼康的拍摄软件中,它误认为亚洲人在照片中眨眼(译注:其实只是眼睛比较小),还有惠普的网络相机软件也很难识别出深色皮肤的人。


      美国各地的警察局也配置了类似的数据驱动型风险评估工具,用来预防「潜在的治安犯罪」。在很多城市,包括纽约、洛杉矶、芝加哥和迈阿密,警察局都会用软件分析量大历史犯罪数据,预测犯罪热点区域最可能出现的位置,并据此部署警力。


      这个软件最起码能持续预测出那些原本就是犯罪高发地的风险,因此警察就会在本来就部署(或大量部署)警力的地方增强安保措施,保证了这些地区逮捕率的提高。在美国,这有可能导致对那些传统上贫困的非白人居住区的监控警力的增多,而富裕的白人居住区受到的监控就更少。这些预测软件只擅长分析它们训练时所用的数据,而这些数据有复杂的历史。


      歧视的历史可能会延伸到数字平台上,如果我们对此不闻不问,它们最终就会成为日常算法系统的逻辑的一部分。最近又有一桩丑闻曝出,亚马逊的当天送达服务在主要的黑人居住区的邮政编码上是不可用的。而这些被忽视的区域的范围竟然与 20 世纪中期被贷款歧视所影响的区域基本一致。亚马逊承诺他们会填补这些空缺,但这也提醒了我们体制不平等对机器智能的影响有多深。


      我们要谨慎的设计和训练机器学习系统,否则未来的人工智能就会被植入根深蒂固的偏见。



      【云立方装饰管理软件以“装饰产业转型升级”为使命,致力改变行业管理现状,优化各环节资源,建设一个”ERP+APP+电商”的个性化的互联网生态系统。】

首页 |方案|支持|案例|关于