首页>>人工智能->人工智能漏洞怎么办(2023年最新解答)

人工智能漏洞怎么办(2023年最新解答)

时间:2023-12-06 本站 点击:0

导读:本篇文章首席CTO笔记来给大家介绍有关人工智能漏洞怎么办的相关内容,希望对大家有所帮助,一起来看看吧。

关于人工智能的弱点你觉得有哪些呢?在未来几百年后人工智能可以会比人类更聪明,但并不意味着会超过人类

不容忽视的是,当前的人工智能技术也存在弱点,美国智库“新美国安全中心”最近发布《人工智能:每个决策者需要知道什么》报告,提示人工智能的一些弱点可能对国家安全等领域造成巨大影响。

第一,脆弱性。目前的人工智能系统还无法超出场景或语境理解行为,其在下棋或游戏等有固定规则的范围内不会暴露出这一弱点,而一旦场景发生变化或这种变化超出一定范围,人工智能可能就立刻无法“思考”。

第二,不可预测性。用户无法预测人工智能会做出何种决策,这既是一种优势,也会带来风险,因为系统可能会做出不符合设计者初衷的决策。

第三,弱可解释性。人工智能或许可以帮助人类做出好的决策,但决策理由目前仍然是一个“黑箱”。例如,图像识别能力可以发现图片中的校车,但无法解释哪些图像特征让它作出这种判断,而在医学诊断领域,诊断的理由往往是重要的。

第四,安全问题和漏洞。机器会重结果而轻过程,通过找到系统漏洞,实现字面意义上的目标,但其采用的方法不一定是设计者的初衷。例如,网站会推荐一些极端主义视频,因为刺激性内容可以增加浏览时间。再如,网络安全系统会判断人是导致破坏性软件植入的主要原因,于是索性不允许人进入系统。

第六,系统事故。在算法不能共享的对抗性环境中,系统性错误很容易发生,导致做出无法估量的决策。比如,在国家安全领域,两种相互对抗的算法为了获得优势会采用某些导致毁灭性后果的行为,尤其在网络安全和电子战过程中,对抗性决策会非常迅速,人类几乎来不及叫停。

第七,人机交互失败。尽管让机器提供建议,由人类做最后决策是解决人工智能某些弱点的常用方法,但由于决策者对系统局限性或系统反馈的认知能力不同,这一问题并不能得到根本解决。2016年特斯拉自动驾驶汽车撞毁事故中,人类操作员就没能理解系统给出的提示而发生致命性事故,在军事、边境安全、交通安全、执法等诸多领域都面临类似挑战。

第八,机器学习漏洞可被对手利用。在对抗性过程中,对手还会释放有毒数据或利用人工智能行为方式的某些漏洞发起攻击,目前还没有抵御这种攻击的有效办法。

人工智能有什么缺陷

第一脆弱性。人工智能系统还无法超出场景或语境理解行为,虽然在下棋或游戏等有固定规则的范围内不会暴露出这一弱点,但是一旦场景发生变化或这种变化超出一定范围,人工智能可能就立刻无法“思考”。

第二、不可预测性。用户无法预测人工智能会做出何种决策,这既是一种优势,也会带来风险,因为系统可能会做出不符合设计者初衷的决策。

第三、安全问题和漏洞。机器会重结果而轻过程,它只会通过找到系统漏洞,实现字面意义上的目标,但其采用的方法不一定是设计者的初衷。例如,网站会推荐一些极端主义视频,因为刺激性内容可以增加浏览时间。再如,网络安全系统会判断人是导致破坏性软件植入的主要原因,于是索性不允许人进入系统。

第四、人机交互失败。尽管让机器提供建议,由人类做最后决策,是解决人工智能某些弱点的常用方法,但由于决策者对系统局限性或系统反馈的认知能力不同,这一问题并不能得到根本解决。

扩展资料:

当计算机出现后,人类开始真正有了一个可以模拟人类思维的工具,在以后的岁月中,无数科学家为这个目标努力着。如今人工智能已经不再是几个科学家的专利了,全世界几乎所有大学的计算机系都有人在研究这门学科,学习计算机的大学生也必须学习这样一门课程,在大家不懈的努力下,如今计算机似乎已经变得十分聪明了。

例如,1997年5月,IBM公司研制的深蓝(DEEP BLUE)计算机战胜了国际象棋大师卡斯帕洛夫(KASPAROV)。大家或许不会注意到,在一些地方计算机帮助人进行其它原来只属于人类的工作,计算机以它的高速和准确为人类发挥着它的作用。

人工智能始终是计算机科学的前沿学科,计算机编程语言和其它计算机软件都因为有了人工智能的进展而得以存在。

如何克服使用人工智能带来的风险

随着科学技术的发展,人工智能越来越多地进入到人们的日常生活中。硅谷的专业人士表示,未来五年内,人们将大大受益于使用人工智能所提升的效率,尤其在医疗卫生、金融、物流和零售行业表现更为突出。与此同时,好莱坞大大炒作了人工智能,将其置于人类的对立面,夸大了人工智能带来的威胁。

针对人工智能的讨论涵盖了伦理、法律,以及对现实生活的干预等各个方面。讨论仍将持续很长时间,但应聚焦于当下最可能发生的风险而非好莱坞的臆想。例如,人工智能的代码程序会出错,我们在医疗卫生、金融以及国家防御决策上到底能多大程度地依赖人工智能?就此,需要加大对合理的预防机制的投入,使之能有效抵消程序漏洞、网络攻击、病毒传播的风险。

人工智能之于军事系统的风险不言而喻;但即便在商业用途,它也会带来大量不可预见的负面效应。政府部门有不同的监管机构来检测产品安全(包括环保署、食品和药物管理局、国家公路交通安全管理局、烟酒枪支弹药管理局及其他无数的管理局)。但问题的关键在于,如果产品在设计时加入了能通过监管检测的程序,那么当产品通过检测,被认定为安全,是否意味着该产品真的安全呢?

规范人工智能领域能使风险可控:充实人工智能算法的测试协议、促进网络安全和输入验证程序,并将之细化到各个工业领域和个人设备。政府应就此起草监管条款但避免该设定阻碍创新的发展。

结语:以上就是首席CTO笔记为大家整理的关于人工智能漏洞怎么办的全部内容了,感谢您花时间阅读本站内容,希望对您有所帮助,更多关于人工智能漏洞怎么办的相关内容别忘了在本站进行查找喔。


本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如若转载,请注明出处:/AI/14610.html