弱人工智能面临的挑战
1.缺乏可解释的人工智能
人工智能进步的一个基本要求是创造更少黑箱的人工智能的实践。这意味着我们必须更好地理解神经网络中发生的事情。今天的人工智能系统,如推荐书籍阅读的系统,有效地采用了黑盒方法。在这种情况下使用的深度学习算法将数百万个数据点视为输入,并将特定特征相关联以提供结果。底层过程是自我导向的,对于程序员和领域专家来说,解释起来具有挑战性。
然而,当人们依靠人工智能模型做出涉及巨额投资的高风险商业决策时,这种黑箱方法可能是有害的,因为系统的输入和操作对相关方来说是不可见的。因此,一个关键的挑战是创造更多可解释的人工智能,而不是黑箱方法。
2.对坚不可摧的安全的需求
神经网络被狭隘的人工智能广泛利用。然而,理解人工智能相当脆弱是至关重要的——它可能会注入噪声并愚弄系统。例如,攻击者可以侵入自动驾驶汽车的软件系统,并更改人工智能程序代码,使程序可能将路上的公共汽车误认为大象。这可能会产生严重的影响和后果。黑客还可以劫持在一个地区运行的整个自动驾驶汽车网络,最终抹去数十亿美元的投资。
此外,对神经网络的一次入侵就能破坏依赖于同一网络的几个系统的运行。此外,由于神经网络容易受到攻击,提供不可渗透的安全性仍然是一个至关重要的挑战。
3.需要从小数据中学习
人工智能模型是根据来自例子的数据进行训练的——这意味着例子是当今人工智能的真正货币。为了让人工智能进一步进化,它必须准备好从更少的数据中学习更多。人工智能应该能够通过利用先验知识,将其学习从一个神经网络转移到其他网络。
人工智能融合了学习和推理。尽管今天的人工智能在学习和积累知识方面取得了重大进展,但将理性应用于这些知识仍然是一个挑战。例如,零售商的客户服务聊天机器人可以回答有关商店营业时间、产品价格和商店取消政策的问题。
然而,一个关于产品X为什么比类似产品Y更好的棘手问题可能会冻结机器人。尽管创造者可以编写机器人来回答这些问题,但教会人工智能自己应用推理仍然是大多数科学家和专家面临的问题。
4.倾向于偏见
今天的人工智能系统容易出现偏差,因为它们经常给出不正确的结果,而且没有合理的解释。复杂的人工智能模型不断在包含偏见或不准确信息的大量数据上进行训练。因此,在这种有偏差的数据集上训练的模型可能会认为不正确的信息是可信的,并做出有偏差的预测。
随着人工智能系统从过去的例子中学习,考虑一个负责做出信贷决策的系统。基于以前的模式,系统可能会认为“不向妇女或少数民族提供信贷”是适当的。因此,核实和检查系统使用的例子没有偏见仍然是一个关键的挑战。
此外,由于弱人工智能缺乏“常识”方面,或公平和公正的意识,处理训练偏差需要大量的规划和设计工作。
5.受制于人的缺点
弱人工智能在很大程度上依赖于人类来执行任务。因此,它容易出现人为失误,比如人们设定了过于雄心勃勃的业务目标,或者错误地安排了任务的优先级。
考虑人类错误定义任务的情况。在这种情况下,不管一台机器工作多长时间或者它执行多少次计算,最终结果仍然是一个错误的结论。因此,弱人工智能对易错人类的依赖对该领域的专家来说是一个巨大的挑战。
6.伦理问题
弱人工智能是指各种模拟人或动物智能解决各种问题的技术,包括问题求解、逻辑推理与定理证明、自然语言理解、专家系统、机器学习、人工神经网络、机器人学、模式识别、机器视觉等。以深度学习为基础的弱人工智能技术目前在图像识别、语音识别、机器翻译、自然语言处理等方面取得了巨大成功,并大规模市场化。在图像识别领域,基于深度学习的人脸识别、物体识别、行为识别等应用在医疗、交通、教育等行业都有广泛的用途,能够有效提高安全防范水平,打万击犯罪和恐怖主义,惩治交通违法行为,提升交通安全水平等。深度学习+数据模式甚至在文学创作、司法审判、新闻编辑、音乐和美术作品创作等方面也有惊人的表现,能够极大地提升工作效率和质量,降低人类的工作强度,激发人类的创作灵感,创作出更好的作品。弱人工智能技术给人类带来的益处是显而易见的。但因为不了解深度学习的运行机制,一些超出人类的能力反倒令人们开始惴惴不安。
2016年6月,微软总裁萨蒂亚·纳德拉(Satya Nadella)说“我们不仅想要智能机器,还需要可理解的机器。”尤其深度学习在医疗、金融、军事等关键领域的应用,使得弱人工智能伦理问题日益得到关注。与尚未实现的强人工智能在未来可能给人类带来的伦理困惑或问题不同,弱人工智能是在现实中可能给我们带来种种伦理风险或困惑。
免责声明:本内容来源于第三方作者授权、网友推荐或互联网整理,旨在为广大用户提供学习与参考之用。所有文本和图片版权归原创网站或作者本人所有,其观点并不代表本站立场。如有任何版权侵犯或转载不当之情况,请您通过400-62-96871或关注我们的公众号与我们取得联系,我们将尽快进行相关处理与修改。感谢您的理解与支持!







请先 登录后发表评论 ~