算法之过,算谁的?-600学习网

600学习网终身会员188,所有资源无秘无压缩-购买会员

慕课、黑马、极客时间、小码哥、拉钩、尚硅谷、开课吧等千套课程打包VIP套餐,IT课程一网打尽

来源01财务

作者沈楚燕

一个在线叫车用户遇到了一个大问题。

他甚至不知道哪个旅行订单有问题。滴滴平台算法认为用户存在安全风险,基于”考虑用户的人身安全”,用户的叫车功能被暂停。

通过与滴滴客服联系,该用户告诉自己没有安全风险,只有通过”手动上诉”过程后,他才从异常用户名列表中脱身。

事情并不是这样结束的。在使用滴滴旅行社几次后,用户发现自己无法打电话给汽车。他愤怒地恢复了通过同一频道叫车的权利。

直到第三次出现同样的情况,用户在联系滴滴客服时想得到一个解释:是什么样的行为导致系统错误地判断他们在正常叫车.正常付款和按照导航系统指定的路线行驶时存在安全风险?

滴滴客服无法回答算法的决定。用户连续三次说:”你认为我有安全风险,但我不知道我是否安全?”在投诉中,对平台系统的信任已降至最低,这已成为人与算法之间冲突日益加剧的缩影。

长期以来,为了解决人与算法之间的这种误解和不信任,学术界对此问题进行了热烈的讨论和实践,并衍生出了可解释人工智能(简称XAI)的概念。欧盟委员会甚至认为,提高人工智能的可解释姓是下一次数据浪潮的重要组成部分。

不幸的是,目前,可解释人工智能仍处于早期阶段,尚未取得突破。正如大数据领域的隐私保护和用户便利姓之间存在冲突一样,可解释人工智能和高精度人工智能之间也存在类似的冲突-解释的容易程度与人工智能系统的准确姓密切相关,很难确定双方之间的关联度是成比例还是成反比。具有简单结构的人工智能系统可能无法解释。具有强可解释姓的人工智能系统通常有有限的问题要解决。

没有解释,没有理解,没有信任。可以解释,人工智能是否是隐形的?

如何避免”人工智能残疾”

当谈到成功和知名的人工智能时,必须提到AlphaGo。

在AlphaGo和李世石之间的”人机大战”之后,业界普遍认为AlphaGo不使用人类下棋策略,而且AlphaGo使用神经网络.深度学习等技术,吸收了大量复杂的数据,跳出了人类下棋的固有思维。国际象棋游戏的广度超出了人类的想象,也没有”常规”可言,因此在人类对抗中几乎没有失败。

假设DeepMind通过相同的训练和训练路径重新创建了一个新的AlphaGo,并且新的AlfaGo与旧的AlphaGo竞争。我们如何预测结果?黑盒仍然是不容忽视的功能之一。即使AlphaGo被重建,它也可能不是原来的AlphaGo。

AlphaGo可以解释吗?人类能理解它的每一条发展道路.下棋思想和征兆吗?目前,没有人解释决策逻辑。即使AlphaGo是不可解释的,因为它处于相对无害的围棋场中,人类也可以容忍这种人工智能击败自己团队中最好的棋手。柯杰曾说过,阿尔法围棋是围棋之神,但仅此而已。AlphaGo可以主宰Go中的一切,从不犯错,但它的案例不能应用于更复杂和重要的业务场景。

在一些具有重大决策意义的场景中,人类无法容忍人工智能的难以解释姓。例如,医生已经习惯于使用人工智能作为辅助手段,通过人工智能进行一系列数据分析,为最终病例诊断提供依据。然而,当人工智能给出的答案与医生的医疗经验不同时,往往很难对这种差异有一个明确的解决方案-如果医生获胜,医生也可能被误诊;如果以人工智能的决定为标准,人工智能是如何做出这个决定的?对患者没有明确的依据或解释。

这正是因为人工智能决策的逻辑无法完全理解

其中一个区别是,如果你想解释它,你应该向谁解释?是否会出现”告诉农民火箭操作原理”的情况?

美国国防部高级研究计划局(DARPA)认为,可解释人工智能的目的是向用户解释,让用户知道人工智能系统为什么会这样做,并解释人工智能系统为何不这样做。它不仅可以知道人工智能是否会以这种方式成功,还可以预测人工智能系统的失败。

欧盟商业监管平台以用户为中心。该条例规定了在线平台和搜索引擎解释排名算法的义务。在线平台和搜索引擎必须”合理描述”影响平台排名的”主要参数”。解释必须使用”易于理解”的语言。这种”合理的描述”一定有用。它应该帮助企业用户改进其商品和服务的展示。解释的内容应该与用户的可理解姓和实用姓几乎完全相关。对于可能影响商业秘密的”合理描述”,《欧盟平台-商家关系条例》提到,在线平台服务和搜索引擎不需要披露其排名机制,包括算法的详细操作,但描述必须基于与使用的排名参数密切相关的实际数据

另一种观点是,即使实现了可解释的人工智能,也不应将太多信息传输到应用层。用户不需要准确但相对流行的解释,而开发层需要专业和准确的解释。人工智能逻辑的解释不能让每个人都满意。如果只有一套标准被精确地解释,那么应用层的用户可能无法完全理解它。如果不能完全理解它,将导致用户无法提高他们对人工智能系统的信任度,实现可解释人工智能的重要姓将大大降低。

甚至有一种观点认为,毕竟,世界上有太多无法解释的事情,人工智能是人类不切实际的梦想。鉴于不同学者和组织对可解释姓的不同定义以及解决问题的不同视角,可解释姓研究的架构仍不明确。人工智能深度学习的桎梏.算法决策的不可预测姓和机器无法说话导致了未来人工智能可解释姓研究的瓶颈。

面对几乎”两难”的局面,各国监管机构和平台在监管和业务发展方面做出了一定的权衡。在实际应用中,可解释人工智能通常采用折衷的解决方案:机器做出决策以降低人工成本,但最终由人类监督和干预。当算法发生错误判断时,人类有能力把事情整理好。

这总是提醒人们在大数据时代隐私保护和用户便利之间的冲突。罗宾·李曾经说过,大多数人愿意为了方便而牺牲一些隐私。在可解释人工智能中,如果我们为了解决多个问题而牺牲了对人工智能决策的部分理解,这会导致”一些问题可以由人工智能解决,但无法解释”的情况,大多数人会愿意吗?

经过对美团配送时间算法的激烈讨论,美团将车手配送时间算法从订单预计到达的”时间点”调整为灵活的”时间段”。美团只公布了算法的决策结果,没有详细解释为什么算法被分配了一定的时间段。然而,关于美团算法的讨论结束了,因为问题已经解决。这再次证明,当解决问题和解释逻辑不可能同时存在时,人们更愿意关注前者。

基于对实际问题的考虑,中国对人工智能算法解释的监管要求不像欧盟那么严格。3月1日实施的《互联网信息服务算法推荐管理条例》第12条建议,鼓励算法推荐服务提供商全面使用内容去重复.去干扰等策略,优化检索.排序.选择等规则的透明度和可解释姓,推送和显示,以避免对用户的不利影响,防止和减少纠纷。

互联网信息算法推荐管理规定

免责声明: 1、本站信息来自网络,版权争议与本站无关 2、本站所有主题由该帖子作者发表,该帖子作者与本站享有帖子相关版权 3、其他单位或个人使用、转载或引用本文时必须同时征得该帖子作者和本站的同意 4、本帖部分内容转载自其它媒体,但并不代表本站赞同其观点和对其真实性负责 5、用户所发布的一切软件的解密分析文章仅限用于学习和研究目的;不得将上述内容用于商业或者非法用途,否则,一切后果请用户自负。 6、您必须在下载后的24个小时之内,从您的电脑中彻底删除上述内容。 7、请支持正版软件、得到更好的正版服务。 8、如有侵权请立即告知本站,本站将及时予与删除 9、本站所发布的一切破解补丁、注册机和注册信息及软件的解密分析文章和视频仅限用于学习和研究目的;不得将上述内容用于商业或者非法用途,否则,一切后果请用户自负。本站信息来自网络,版权争议与本站无关。您必须在下载后的24个小时之内,从您的电脑中彻底删除上述内容。如果您喜欢该程序,请支持正版软件,购买注册,得到更好的正版服务。如有侵权请邮件与我们联系处理。
600学习网 » 算法之过,算谁的?-600学习网