英国政府最近的技术事故似乎让许多英国公民尝到了苦头。英国计算机协会(BCS)的一份最新报告显示,超过一半的英国成年人(53%)不信任那些使用算法对自己做出决定的组织,对2000多名受访者进行了调查,在经历了一个动荡的夏季之后,受到了学生们的骚动结果表明,考试管理者https://www.zdnet.com/article/when-algorithms-define-kids-by-postcode-uk-exam-results-chaos-reveal-too-much-reliance-on-data-analytics/“>使用不公平算法预测a-level和GCSE成绩,在COVID-19流感大流行后,考试无法进行。
Ofqual的算法有效地基于学校以往表现的预测,导致成绩大幅下降,尤其是对公立学校的影响,尽管政府支持私立学校。
政府迅速回溯,允许学生采用教师预测的成绩,而不是基于算法的结果。这可能太少了,太晚了:BCS调查的受访者中,只有7%的人表示他们信任教育部门专门使用的算法。
这一比例与社会服务机构和军队使用的算法的信任程度一样是最低的;甚至低于受访者据报道,他们相信社交媒体公司的算法能够提供内容和直接的用户体验(8%)同时,它也让人们意识到算法无处不在算法总是存在的,人们意识到这是事实,他们在问:“为什么我要相信你的算法?”
“这是重点,这正是人们应该问的问题,我们其他参与设计和部署这些算法的人应该准备好解释为什么一个给定的算法会对人们有利,而不会被用来造成伤害。”
英国公共生活标准委员会(committee on standards in public life)去年2月发出了这样的信号:在提供关键公共服务时,隐藏的人工智能系统非常普遍,在一份报告中https://www.zdnet.com/article/we-are-still-playing-catch-up-with-ai-and-its-a-dangerous-game/“>强调政府在使用这项技术时缺乏公开性和透明度。
当时报告指出的一个主要问题是,没有人确切知道政府目前在哪里使用人工智能。与此同时,公共服务部门正越来越多地将人工智能应用于警务、教育、社会护理和卫生等部门的高影响力决策过程中。
由于算法在可能对公民生活产生巨大影响的领域的使用缺乏明确性,公众对某些技术的使用不信任政府服务不应令人惊讶,也不应忽视试图扭转有偏见算法的破坏性影响的努力。
“我们在学校所看到的情况表明,当公众愿意时,他们可以非常明确地取得所有权,”米切尔说,“但我不确定我们是否希望在这样一种情况下,如果一种算法出现任何问题,我们最终会在街头发生骚乱。”
相反,米切尔认为,在算法推出之前,应该有一种系统化的方式与公众接触,明确技术将影响到谁,将使用哪些数据,谁将受到影响对结果负责,并对出现问题时如何修复系统负责。
换句话说,这不仅仅是为了确保公民知道人工智能系统何时做出决策,“如果你让我证明你可以信任我的算法,”米切尔说,“作为一个专业人士,我需要向你展示——这个算法影响的人——是的,你可以信任我的专业人士。”
“嵌入这些标准在人工智能系统的设计和开发阶段是一项艰巨的任务,因为在算法的整个生命周期中,不同的人在不同的时间做出了许多层的选择。但米切尔认为,要想重新赢得公众的信任,就必须让数据科学成为一个值得信赖的职业,就像医生或律师一样值得信赖。
事实上,英国国家医疗服务系统的最新报告显示,当涉及到由算法产生的决策时,国民医疗服务系统是公民最信任的组织。高达17%的受访者表示,他们对NHS的自动化决策有信心,在18-24岁的受访者中,这一比例跃升至30%。
“人们信任NHS是因为他们信任医生和护士。米切尔说:“他们是专业人士,必须遵守正确的标准,如果不遵守,就会被开除。”在IT行业,我们没有同样的东西,但我们现在看到算法正被用于高风险的情况下。”
公众会像信任医生一样信任数据科学家吗?这个想法可能看起来不协调。但是,随着人工智能每天渗透到公民生活的更多方面,让公众参与进来将成为整个数据科学专业的优先事项。