<返回更多

算法挂嘴边,啥是算法典范,来看看

2022-07-28    DeepTech深科技
加入收藏

将决策系统描述为“算法”通常是人们转移决策责任的一种方式。对许多人来说,“算法”指的是一套基于客观经验证据或数据的规则,是一个极度复杂的系统,以致人类很难理解其内部工作原理或预测算法运行时的反应。

但这种描述准确吗?也不总是。

图 | 算法在 AI 识图中的应用(来源:Pixabay)

例如,去年 12 月下旬,斯坦福医学中心把新冠疫苗的分配不当归咎于一种分配“算法”,该算法偏向高级管理人员,而非一线医生。据《麻省理工技术评论》当时的报道,这家医院声称,为了设计“非常复杂的算法”,医院已经咨询了伦理学家,其中一位代表表示“完全行不通”。尽管许多人认为算法涉及人工智能或机器学习,但该系统实际上是一个医学算法,在功能上是不同的,更像是一个非常简单的公式或者是人类委员会设计的决策树。

这种脱节突显了一个日益严重的问题。随着预测模型的激增,公众在做出关键决策时变得更加谨慎。但决策者在开始制定评估和审计算法的标准时,首先必须定义决策的类别或他们决策适用的辅助工具。给“算法”这个术语保留解释的余地,可能会让一些影响最大的模型超出了确保这类系统对人没有坏处的政策的影响范围。

如何识别算法

那么斯坦福医学中心的“算法”是一种算法吗?这取决于你如何定义这个词。虽然“算法”还没有一个公认的定义,但计算机科学家哈罗德·斯通在 1971 年编写的教科书里给出了一个普遍的定义:“算法是精确定义一系列操作的一套规则。”这个定义包罗万象,从配方到复杂的神经网络:基于算法的审计策略涉猎太广泛了。

在统计学和机器学习中,我们通常认为算法是计算机为了解数据执行的指令集。在这些领域中,产生的结构化信息通常称为模型。计算机通过算法从数据中了解到的信息可能看起来像“权重”,可以乘以每个输入因子,也可能要复杂得多。算法本身的复杂程度可能也不同。这些算法产生的影响最终取决于它们所应用的数据和最终模型运行的情况。同样的算法在一种情况下可能会产生积极的影响,而在另一种情况下又会产生截然不同的影响。

在其他领域,上述模型本身被称为算法。尽管这令人感到困惑,但从最广泛的定义来看,这也是准确的:模型是定义一系列操作的规则(通过计算机的训练算法来了解规则,而不是由人类直接表述)。例如,去年在英国,媒体报道一种“算法”不能给由于疫情无法参加考试的学生公平打分。这些报道确实讨论的是模型——把输入(学生过去的表现或老师的评价)转化为输出(分数)的指令集。

斯坦福医学中心发生的事情就好像是人类(包括伦理学家)坐下来,决定该系统应该采用怎样的操作,从而根据员工的年龄和部门等输入信息决定这个人是否应该首先接种疫苗。据我们所知,这一系列操作并没有基于优化某个定量目标的估计程序。这是一套如何让疫苗优先化,以算法的语言固定下来的规范性决策。这种方法在医学术语和广义定义中被视为一种算法,尽管其中唯一涉及的智能是人类。

关注影响,而不是投入

立法者也在争论什么是算法。美国国会在 2019 年引入的 HR2291 或算法责任法案使用了“自动决策系统”一词,将之定义为“机器学习、统计数据或其他数据处理、人工智能技术等得出的计算过程,以此作出决策或帮助人类决策,影响消费者。”

人工智能审计可能会忽略某些类型的偏见,而且也不一定能证明招聘工具是否给岗位挑选了最好的候选人。

纽约市也在考虑引进 Int 1894 法,这项法律将对“自动化就业决策工具”采取强制性审计,该工具定义为“功能由统计理论决定的系统或由这类系统定义参数的系统”。值得注意的是,这两个法案都要求审计,但只提供了有关什么是审计的高级指导方针。

随着政府和产业的决策者都在为算法审计制定标准,对“什么是算法”的意见可能会出现分歧。我们建议主要根据算法产生的影响来进行评估,而不是想着给“算法”下一个统一的定义或统一审计方法。关注结果而不是投入的话,我们就能避开技术复杂程度这些没必要的争论。无论我们讨论的是代数公式还是深层神经网络,重要的一点是会不会造成危害。

在其他领域的影响是一个关键的评估因素,它被嵌入到网络安全领域的经典 DREAD 框架中,21 世纪初微软首次了推广这一框架,目前还有一些企业在使用。DREAD 框架中的“A”要求威胁评估人员询问有多少人会受到一个确定的计算机安全隐患的影响,从而量化“受影响的用户”。影响评估在人权和可持续发展分析中也很常见,我们已经看到一些人工智能影响评估的早期开发者建立了类似的规则。例如,加拿大的《算法影响评估》基于 “该业务领域的客户是否特别容易受到影响? (是或否)”等定性问题打分。

无论我们讨论的是代数公式还是深层神经网络,重要的一点是会不会造成危害。

在评估中引入“影响”这样一个定义广泛的术语肯定比较困难。DREAD 框架后来被 STRIDE 补充或取代,部分是因为协调威胁建模所需内容的不同观点带来了挑战,微软在 2008 年停用了 DREAD。

在人工智能领域,会议和期刊已经引入了影响声明,公众对此褒贬不一。这并非万无一失:纯粹公式化的影响评估很容易露出马脚,而过度模糊的定义可能导致评估武断或冗长。

尽管如此,这仍然是向前迈出的重要一步。“算法”一词,无论如何定义,都不该成为设计和部署系统的人逃避责任的盾牌。这就是公众要求算法问责的呼声越来越高的原因,而“影响”一词的概念为不同团体满足这一需求提供了一个有用的共同基础。

-End-

声明:本站部分内容来自互联网,如有版权侵犯或其他问题请与我们联系,我们将立即删除或处理。
▍相关推荐
更多资讯 >>>