最新的加密货币新闻

什么是可解释人工智能 (XAI)?

0 8

XAI 涉及设计可以通过各种技术解释其决策过程的 AI 系统。 XAI 应该让外部观察者更好地理解人工智能系统的输出是如何产生的,以及它的可靠性如何。 这很重要,因为人工智能可能会带来直接和间接的不利影响,从而影响个人和社会。 

正如解释什么理解人工智能一样,解释其结果和功能也可能令人望而生畏,尤其是在深度学习人工智能系统发挥作用的情况下。 对于设想 AI 如何学习和发现新信息的非工程师而言,可以认为这些系统在其内核中利用复杂电路,其形状类似于人脑中的神经网络。

促进 AI 决策的神经网络通常被称为“深度学习”。 系统。 深度学习系统做出的决策在多大程度上是不透明的或难以理解的,以及人工智能及其“思维”在多大程度上是有争议的。 可以而且应该向普通人解释。

关于深度学习系统是真正的黑匣子还是完全透明,学者们存在争论。 然而,普遍的共识是大多数决策在某种程度上应该是可以解释的。 这很重要,因为国家或商业实体部署人工智能系统会对个人产生负面影响,因此确保这些系统的问责性和透明度至关重要。

例如,荷兰 Systeem Risico Indicatie (SyRI) 案例就是一个突出的例子,说明政府决策需要可解释的人工智能。 SyRI 是一个使用人工智能的自动决策系统,由荷兰半政府组织开发,该系统使用个人数据和其他工具通过不透明的过程识别潜在的欺诈行为,后来被归类为黑匣子。

该系统因缺乏透明度和问责制而受到审查,国家法院和国际实体表示它侵犯了隐私和各种人权。 SyRi 案例说明了政府人工智能应用程序如何通过复制和放大偏见和歧视来影响人类。 SyRi 不公平地将弱势个人和社区作为目标,例如低收入和少数民族人口。 

SyRi 旨在通过将某些人标记为高风险来寻找潜在的社会福利欺诈者。 SyRi 作为欺诈检测系统,仅被部署用于分析低收入社区的人们,因为这些地区被认为是“问题”; 区。 由于该州仅在已被视为高风险的社区部署了 SyRI 的风险分析,因此人们在那里发现了更多高风险公民(相对于其他未被视为“高风险”的社区)也就不足为奇了。  

反过来,由于全面的跨组织合作,这个标签会助长刻板印象并强化居住在这些社区的居民的负面形象(即使他们没有在风险报告中提及或被认定为“未受影响”)这些数据输入并在公共机构中循环使用的数据库。 该案例表明,如果人工智能系统产生偏见等不良后果,但如果缺乏透明度和外部控制,它们可能不会被注意到。

除了国家之外,私营公司还开发或部署了许多人工智能系统,其透明度和可解释性被其他利益所压倒。 尽管可以说,如果不是过去的政府资助,支持 AI 的当今结构将不会以目前的形式存在,但当今 AI 取得的进展中有很大一部分是私人资助的,并且正在稳步增长。 事实上,2022 年人工智能领域的私人投资比 2013 年高出 18 倍。

商业AI“生产者” 主要对股东负责,因此,可能会非常专注于创造经济利润、保护专利权和防止监管。 因此,如果商业人工智能系统的功能不够透明,大量数据被私下囤积以训练和改进 AI,因此了解此类系统的工作原理至关重要。 

最终,XAI 的重要性在于它能够深入了解其模型的决策过程,使用户、生产者和监督机构能够了解特定结果的产生方式和原因。 

这可以说有助于建立对政府和私人人工智能系统的信任。 它增加了问责制,并确保人工智能模型没有偏见或歧视。 它还有助于防止公共机构中的低质量或非法数据从与算法欺诈检测系统交叉的不良或综合性跨组织数据库中回收。

本网站使用 cookie 来改善您的体验。 我们假设您对此表示满意,但如果您愿意,您可以选择退出。 接受 阅读更多

隐私和 Cookie 政策