news center

偏差测试以防止算法不公平地区分

偏差测试以防止算法不公平地区分

作者:宾罹渲  时间:2017-10-19 01:01:42  人气:

弗朗西丝·罗伯茨/阿拉米库存照片由马特雷诺兹计算机得到道德测试算法是否包含隐藏偏差的新方法旨在防止自动化系统使人类歧视永久化伦敦艾伦图灵研究所的Matt Kusner表示,机器学习越来越多地用于做出敏感的决策在美国的一些州,法官使用算法来判决判决并设定保释条件,这些算法可以计算某人重新犯罪的可能性其他算法评估是否应该向某人提供贷款或面试但是,通常不清楚这些系统如何得出结论,这使得无法判断它们是否是公平的算法可能会得出结论,来自某个人口的人不太可能偿还贷款,例如,如果它是在一个数据集上进行培训,其中贷款首先是不公平分配的 “在机器学习中,我们有种族主义和种族主义的问题,”同样在阿兰图灵研究所的克里斯拉塞尔说 Kusner和Russell是团队的一员,该团队已经开发出一个框架来识别和消除算法偏差该团队表示,一种公平的算法是针对个人做出相同决策的,无论人口统计背景如何因为某人的背景可以影响他们生活的其他方面,例如他们的社区或学业成就,所以忽略明显的种族或性别线索是不够的;你必须考虑变量如何相互作用因此,团队将数据集中的变量映射出来,并测试它们如何扭曲决策过程如果有偏见的证据,研究人员会找到一种方法来消除或补偿它该团队将此应用于2014年纽约市警察局的停止和搜索数据,模拟影响警察阻止某人的决定的变量首先,团队考虑了所有变量,包括皮肤颜色和停止的人的外观然后,他们只考虑与实际犯罪有关的数据点,例如该人是否被携带武器以及他们是否被捕该团队发现,警察普遍认为黑人和西班牙裔男性比白人男性更为犯罪,更频繁地阻止他们 - 所以对这些事件的机器学习分析可能会推断出犯罪与肤色有关但实际犯罪的证据在不同的群体中是相似的像这样受过训练的模型可以帮助决定在何处进行警察巡逻,而不会出现种族歧视(arxiv.org/abs/1703.06856) “我认为这些家伙做对了,”宾夕法尼亚州匹兹堡卡内基梅隆大学的Simon DeDeo说他说,与其依靠算法来做出道德选择,我们需要弄清楚什么是公平的 “最大的问题是让计算机能够向我们解释自己”团队现在想在其他领域尝试这种方法对于法律上有义务保持其流程不受歧视的公司,如抵押贷款提供商,这可能是有用的本文以标题“偏差测试以保持算法伦理”的形式出现在这些主题的更多内容: