加入收藏 | 设为首页 | 会员中心 | 我要投稿 揭阳站长网 (https://www.0663zz.com/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 站长资讯 > 传媒 > 正文

科技公司需要设置“首席偏差官”

发布时间:2021-05-04 14:00:22 所属栏目:传媒 来源:互联网
导读:历史学会最近透露,学会利用人工智能算法进行的初次研究显示,英国的劳动力存在大规模性别偏差。基于人工智能的系统搜集了整个英国互联网上的资料,排查了现有男女职位的分布。该项研究调研了108个不同的经济行业后发现,其中87%的行业存在倾向于男性的不平

历史学会最近透露,学会利用人工智能算法进行的初次研究显示,英国的劳动力存在“大规模性别偏差”。基于人工智能的系统搜集了整个英国互联网上的资料,排查了现有男女职位的分布。该项研究调研了108个不同的经济行业后发现,其中87%的行业存在倾向于男性的不平等,导致任高层领导职位的男性不成比例。

这项开创性的研究很好地说明了人工智能在阐释我们的世界时具有极大的潜力,毕竟,人工智能的一个强大功能就是分析超大量的数据并在其中找到我们人类无法找到的模式。不过,虽然人工智能可以帮助发现偏差和不公平,但实际上人工智能也可能导致更多的人工智能也扩展到了其他领域,如刑事司法、招聘和招聘等等。IBM发表的一份研究报告提出,已经定义和分了类的人类偏差达180之多,每种偏差都可以干扰判断及影响最终决策。人工智能则很容易复制这些偏差。假定一家公司要利用人工智能来确定员工的工资,定工资的标准部分基于薪酬历史。这就可能会令女性处于相当不利的个组织要如何才能确定自己及人工智能系统所依赖的数据确实是合适的?而且不会强化歧视模式呢?

与许多其他问题一样,克服问题的先要承认问题的存在。企业不仅必须重新定位数据集和算法培训,还必须重新定位围绕人工智能的流程和人员。我们希望有一个更公平的工作场所,在这个过程中解决这些问题就至关重要。我们必须有专门的团队和流程,甚至可能需要创建诸如“首席偏差官”这样的职位,他的工作就是审查数据并确保严格的道德标准,人工智能工具将会在我们的工作环境里越来越普及,他的任务是与偏差和偏见做斗争。

例如,他可以通过推动多样化,影响工程团队的招聘,然后再定期检查工程师为人工智能算法选用的数据输入。这是“人员就是政策”的一个例子。要认识到人工智能并非绝对可靠,这一点很重要,拙劣的输入意味着拙劣的输出。他要定期进行绩效评估,要针对可查算法输出进行控制测试及持续微调。

各组织需确保多种背景的使用,多种背景可以防止扭曲和盲点。 Buolamwini本人则建议组织要检查不同偏差集的算法 ,一系列不同的视角可以加强这方面的工作,可以减少偏差数据及确保更公平的算法代码。

修复算法偏差需要管理层、人力资源和工程师的共同努力,三方面合作才能有效地将有意识和无意识的人类偏见排除在系统之外。人类的愚笨是永远无法完全消除的,但认识了人类的愚笨后,我们就可以打造更公平、更聪慧的人工智能系统,可以真正令我们的工作场所决策少一些人工、多一些智能。

(编辑:揭阳站长网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

    热点阅读