资讯中心

AI也会“偏心”?人工智能还需和社会一同进步

2021/6/23 15:15:12    26204
来源:仪表网
摘要:AI技术发展中出现的诸多公平性问题,其实是映射了人类社会中本已存在的歧视和偏见。
  【仪表网 仪表下游】导读:AI技术发展中出现的诸多公平性问题,其实是映射了人类社会中本已存在的歧视和偏见。
 
  2014年,亚马逊公司启动了一个通过AI技术开展自动化招聘的项目。这个项目完全基于求职者简历提供的信息,通过AI算法进行评级。然而,第二年亚马逊便意识到这个机器脑瓜并不像想象中那样公平公正——它似乎在歧视女性!当一份简历中出现“women”等字眼时,在打分上就会吃亏。
 
  AI的公平性问题,本质上并非来源于技术本身,而是来自人心,也就是说,其本源是社会的公平性。AI技术从算法和系统的设计,走向社会的应用实践,这个过程涉及方方面面的人,在很多环节,都有可能有意或无意地引入歧视和偏见。
 
  除了不同人群间的公平问题,AI公平还涉及到开发者和使用者之间的不平等问题。大量APP在使用时会出现一个“知情同意”的选项,这个知情同意书往往少则上千字,多则上万字,大量的信息让消费者无力长时间阅读,只好选择同意,否则只能退出。
 
  总体来讲,AI技术的高度发展对公平性的提升是有利的。首先在技术的加持下,教育、医疗等重大领域在资源供给的数量和质量上都会有极大提升,供给侧的繁荣有助于缓解社会资源分配不均;其次,随着大数据的连接,人们有机会在全局层面上提炼主要矛盾,探讨公平问题,进而达成社会共识。
 
  人工智能是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。人工智能是计算机科学的一个分支,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器,该领域的研究包括机器人、语言识别、图像识别、自然语言处理和专家系统等。人工智能从诞生以来,理论和技术日益成熟,应用领域也不断扩大,可以设想,未来人工智能带来的科技产品,将会是人类智慧的“容器”。人工智能可以对人的意识、思维的信息过程的模拟。人工智能不是人的智能,但能像人那样思考、也可能超过人的智能。
 
  作为AI从业者、开发者、运营者的我们,一定要意识到:我们所开发的AI既可能被用来促进社会公平和消除歧视,也有可能被滥用,甚至助纣为虐。
 
  人们开发了很多工具,包括分析数据集形态和质量的工具,能让开发者、工程师清楚地看到他们用于训练的数据特征的分布,比如性别、年龄等等,至少要满足统计学意义上的合理分布,从而减少潜在的偏见;还有分析算法模型的工具,可以对模型的公平性进行评估,并做出相应纠偏和优化;此外还有帮助开发者对决定模型输出的关键数据特征进行探索的工具;以及公平性约束条件下的算法训练工具等。
 
  AI公平性的一个重要方向是数据的可获得性和可使用性。就AI技术立法问题而言,法律既要解决形式上的公平、机会上的公平和程序上的公平,还要实现形式公平和实质公平的统一。应在时机成熟的时候推出综合立法。在这个过程中,既要考虑对个人数据的保护,也要考虑保护和创新之间如何形成平衡。
 
  资料来源:百科、中国科学报

全部评论

上一篇:六月机器人领域热潮再起,亿元融资不在少数

下一篇:“三胎”政策释放红利 智能家居蓝海显现

相关新闻
热门视频
相关产品
写评论...