机遇与挑战并存,人工智能时代下的信息安全问题

安全 (27) 2021-08-10 15:00:43

大家都知道,近年来随着科技的快速发展,使得如今我们的生活越来越便捷。

像汽车的出现,使得人们出行更加方便,GPS导航的出现也让交通更加便利。

而如今科技的快速发展,也将使得我们即将进入人工智能时代。

近年来,随着通信网络、存储能力及云计算等技术的高速发展,人工智能技术出现了“井喷式”的发展。

虽然目前AI还处于发展的初级阶段,但在家电、移动设备、社会管理等软硬件都融入了人工智能的技术时,我们可曾想过:

无孔不入的人工智能是否会给人类带来损害?

信息安全问题是否难以保障?

信息安全问题值得重视

近些年来,全球网络威胁持续增长,各类网络攻击和网络犯罪现象日益突出,

许多漏洞和攻击工具被网络犯罪组织商品化,大量进行地下交易以牟取暴利,使网络威胁的范围加速扩散。

随着网络犯罪背后的黑色产业链获利能力的大幅提高,

互联网的无国界性使得网络威胁对全球各国用户造成的损失随着范围的扩散而快速增长。

后棱镜门时代,世界各国掀起了网络安全建设的高潮,各国政府和企业机构逐渐开始重视对网络内容安全的管理。

目前全球许多国家都通过立法以及技术手段来保卫本国的互联网基础设施。

保障网络内容的健康和绿色,为网络内容安全管理市场的发展创造了条件,全球行业未来增速有望超过当前主流预期。

信息安全迈入人工智能时代

由于网络攻击是不断演变的,防御过程中经常需要面临先前未知类型的恶意软件。

而人工智能则可凭借其强大的大规模运算能力脱颖而出,迅速排查筛选数百万次事件,以发现异常、风险和未来威胁的信号。

人工智能在防御领域的这个天然优势,使得AI+网络安全成为当红炸子鸡。

尤其是在发现和阻止黑客入侵物联网设备、预防恶意软件和文件被执行、提高安全运营中心的运营效率、量化风险、网络流量异常检测、检测恶意移动应用这六大关键创新领域,成为AI网络安全防护的突破口。

AI时代信息安全的隐患

但是与此同时,人工智能的发展对于信息安全也带来了五方面的安全问题:

透明和可信
人工智能的透明性可以理解为人工智能行为的可解释性。

目前基于包括深度学习在内的多种人工智能算法,对于用户来说均是不透明的,缺乏有效的机制对其行为进行解释。

无法准确解释产生结果的原因就意味着无法对结果进行验证,这在很多关乎用户安全的领域,例如医疗、自动驾驶等,会使用户产生严重的不信任感。

其中,《美国国家人工智能研究和发展战略计划》对人工智能应当达到的透明、可信进行了分析,认为系统的透明可信应当具体体现在以下几个方面中:

(1)透明,即以用户可见的方式进行操作;

(2)可信,即用户可接受的系统输出;

(3)可审计,系统可评估;

(4)可靠,系统按照用户期望行动;

(5)可恢复,用户可在需要时恢复控制。

虽然,透明、可信被认为是人工智能安全可控的首要因素,但多国的人工智能发展战略均承认,目前还没有科学有效的方法对人工智能的决策过程进行追踪和解释。

可验证和可确认
可验证性和可确认性是透明和可信在逻辑上的自然延伸。

人工智能系统需要新的方法来验证和确认。

《美国国家人工智能研究和发展战略计划》认为“可验证”指确定系统满足正式规范,

而“可确认性”指确定系统满足用户的操作需求。

安全的人工智能系统需要新的方法:

评估方法(确定系统是否发生故障,尤其当系统可能在预期参数以外运行时);

诊断方法(确定故障原因)和维修方式(调整系统以解决故障)。

道德和隐私
道德和隐私问题主要针对的是人们对数据密集型人工智能算法出错和滥用的敏感性,

以及对性别、年龄、种族或经济类信息可能产生的影响所表达的担忧。

其中,由于利用人工智能系统进行决策依赖于密集的数据收集和处理,并且这是一种日常的、持续进行的工作。

在这种情况下,大数据所带来的隐私保护和数据权属问题被放大,需要寻找新的平衡点。

除去纯粹的数据相关问题,出现在人工智能设计上的更大的问题本质上是公正、公平、透明和负责。

在这个问题上,有很多可供借鉴的例子,比如谷歌相册软件将深色皮肤的人群标记为大猩猩,意在说明技术上的偏差可能导致不安与仇视。

另外,如何表示和“编码”人类价值和信仰体系是人工智能发展的重要研究课题。

责任模式
对于责任模式的担忧出现在《机器人技术和人工智能》中,

指人工智能系统的设计者和部署者对于人工智能系统行为的结果应当承担何种责任。

相比以上几个方面,责任模式的问题更加具有针对性。

目前主要体现在关于自动驾驶汽车行驶过程中出现事故的责任分担上。

安全防护和长期优化
传统的网络安全在人工智能环境中可能带来的新的挑战。

嵌入关键系统中的人工智能系统必须耐用、安全,以应付大范围的蓄意网络攻击。

人工智能系统的应用将带来一些新的独特的威胁形式。

有一项名为“对抗机器学习”的研究项目,该项目通过“污染”训练数据、修改算法或通过对阻碍其得到正确识别的某一目标进行微小变化(例如,欺骗面部识别系统的假肢),以此来探索对人工智能系统的独特危害。

在需要高度自主性的网络安全系统中实施人工智能是一个需要进一步研究的领域。

同时,人工智能系统最终可能采取“循环自我改进”,即大量软件修改会由软件自身进行,而非由人类程序员进行。

为了确保自我修改系统的安全性,需要进行额外研究来进行开发,

例如建立自我监测架构,通过设计者的原始目标来检查系统的行为一致性;或可证明的,能抵抗自我修改的价值架构等。

人工智能的发展,喜忧参半,人工智能到底该不该继续研究下去,或者说应该朝着什么样正确的道路研究下去,我们都很难说。

每一件新事物的出现都是一把双刃剑,有利有弊,逃避绝对不是一个正确的做法,如何最大程度的发挥它的优点,最大程度的避免缺点的出现,才是人类真正应该考虑的。

 

THE END

发表评论