• <strike id='riaqld755'><legend id='riaqld755'></legend></strike>

  • <strike id='riaqld755'><legend id='riaqld755'></legend></strike>

  • <strike id='riaqld755'><legend id='riaqld755'></legend></strike>

  • <strike id='riaqld755'><legend id='riaqld755'></legend></strike>

  • <strike id='riaqld755'><legend id='riaqld755'></legend></strike>

  • <strike id='riaqld755'><legend id='riaqld755'></legend></strike>

  • <strike id='riaqld755'><legend id='riaqld755'></legend></strike>

  • <strike id='riaqld755'><legend id='riaqld755'></legend></strike>

  • <strike id='riaqld755'><legend id='riaqld755'></legend></strike>

  • <strike id='riaqld755'><legend id='riaqld755'></legend></strike>

  • <strike id='riaqld755'><legend id='riaqld755'></legend></strike>

  • <strike id='riaqld755'><legend id='riaqld755'></legend></strike>

  • 香 港 铁 算 盘 一 句 解 特 马:深度:我们真的永远也理解不了人工智能吗?

    衣装理容编辑:监管部门紧盯任性停牌 厦华电子等多公司被点名提醒
    Lina
    衣装理容编辑
    2018年07月25日来源于:海南日报
    分享:
    香港铁算盘一句解特马----------海南日报

       在神经网络中,数据从一层传递到另一层,每一步都经历一些简单的转变。在输入层和输出层之间还隐藏着若干层,以及众多节点组和连接。其中往往找不出可被人类解读的规律,与输入或输出也没有明显的联系。“深度”网络便是隐藏层数量较多的神经网络。

       在现代机器学习算法中,可解释性与精确度难以两全其美。深度学习精确度最高,同时可解释性最低。   导语:美国科学杂志nautil.us《鹦鹉螺》作家Aaron M.Bornstein发表了针对人工智能时代下神经网络模型的深度报道。从语音识别到语言翻译,从下围棋的机器人到自动驾驶汽车,各行各业都在该人工智能的驱动下出现了新的突破。虽然现代神经网络的表现令人激动,但也面临一个棘手的问题:没人理解它们的运行机制,这也就意味着,没人能预测它们何时可能失灵。正因为如此,许多人迟疑不前、不敢对神秘莫测的神经网络下注。

       以下为文章全文:   作为IBM的一名研究科学家,迪米特里·马里奥托夫(Dmitry Malioutov)其实不太说得上来自己究竟打造了什么。他的部分工作内容是打造机器学习系统、解决IBM公司客户面临的棘手问题。例如,他曾为一家大型保险公司编写了一套程序。这项任务极具挑战性,要用到一套十分复杂的算法。在向客户解释项目结果时,马里奥托夫更是大伤脑筋。“我们没办法向他们解释这套模型,因为他们没受过机器学习方面的培训。”

    ABC国际
    YOKA男士网

    香港铁算盘一句解特马

    其实,就算这些客户都是机器学习专家,可能也于事无补。因为马里奥托夫打造的模型为人工神经网络,要从特定类型的数据中寻找规律。在上文提到的例子中,这些数据就是保险公司的客户记录。此类网络投入实际应用已有半个世纪之久,但近年来又有愈演愈烈之势。从语音识别到语言翻译,从下围棋的机器人到自动驾驶汽车,各行各业都在该技术的驱动下出现了新的突破。   虽然现代神经网络的表现令人激动,但也面临一个棘手的问题:没人理解它们的运行机制,这也就意味着,没人能预测它们何时可能失灵。

    以机器学习专家里奇·卡鲁阿纳(Rich Caruana)和同事们前几年报告的一起事件为例:匹兹堡大学医学中心的一支研究团队曾利用机器学习技术预测肺炎患者是否会出现严重并发症。他们希望将并发症风险较低的患者转移到门诊进行治疗,好腾出更多床位和人手。该团队试了几种不同的方法,包括各种各样的神经网络,以及由软件生成的决策树,后者可总结出清晰易懂、能被人类理解的规则。

    神经网络的正确率比其它方法都要高。但当研究人员和医生们分析决策树提出的规则时,却发现了一些令人不安的结果:按照其中一条规则,医生应当让已患有哮喘的肺炎病人出院,而医生们都知道,哮喘患者极易出现并发症。/p>

    这套模型完全遵从了指令:从数据中找出规律。它之所以给出了如此差劲的建议,其实是由数据中的一个巧合导致的。按照医院政策,身患哮喘的肺炎患者需接受强化护理。而这项政策效果极佳,哮喘患者几乎从不会产生严重并发症。由于这些额外护理改变了该医院的患者记录,算法预测的结果也就截然不同了。

    在国际机器学习大会的专题研讨会结束时,部分发言人参加了一场讨论会,试图给“可解释性”下一个定义。结果每个人都各执一词。进行了一系列讨论后,大家似乎达成了一点共识:一个模型要能被解释,就要具备“简单性”(simplicity)。但在简单性的定义问题上,大家又产生了分歧。“最简单”的模型究竟是指依赖最少特征的模型?还是程序规模最小的模型?还是有其它解释?一直到研讨会结束,大家都没有达成共识。

    分享:
    相关阅读
    论坛精华
    每日精选
    衣范追踪潮流街拍