据估算,到2032年人工智能(AI)的市场规模将达到1020亿美元,而众所周知,人工智能正在席卷各行各业。我们都知道AI的基本理念——就像创建真正智能的计算机,方法是给它们展示大量图片,告诉它们图片中的内容,并让它们从这些图片中进行学习,这样它们就可以自己解决问题。
然而,AI需要数据,而这些数据的来源、处理数据的方式,以及处理后产生的结果都将需要身份感和安全感。可以理解的是,许多人担心这些数据的安全性。一项2023年的调查研究显示,81%的受访者担心与ChatGPT和生成式AI相关的安全风险,而只有7%的人对AI工具将增强互联网安全性持乐观态度。因此,对于AI技术而言,强有力的网络安全措施将更为重要。
当然,也有大量机会将AI应用于网络安全,以改进威胁检测、防范和事件响应。因此,企业需要了解AI在网络安全领域的机遇和薄弱环节,以领先于即将到来的威胁。在今天的博文中,我将深入探讨企业在探索将AI应用于网络安全领域时需要了解的重要事项,以及如何防范AI中出现的威胁。
从好的方面来看,AI可以通过更有效、更准确和更快的反应来为改变网络安全助力。AI应用于网络安全的一些方法包括:
我们已经发现攻击者在攻击中使用AI。例如:
此外,AI需要大量数据,企业需要精准限制被共享的数据,因为它会创建另一个第三方,而数据可能通过第三方泄露。由于Redis开源库中存在漏洞,因此ChatGPT自身也遭遇了数据泄露,用户可访问他人的聊天历史记录。OpenAI迅速解决了这个问题,但它突显了聊天机器人和用户的潜在风险。一些公司已经开始彻底禁用ChatGPT以保护敏感数据,而另一些公司正在实施AI策略,以限制可以与AI共享的数据。
这里的教训是,虽然威胁制造者在不断进化并在新的攻击中使用AI,但企业需要熟悉入侵的潜在威胁,从而防范这些威胁。
如果对在网络安全领域采用AI进行探讨而不提及道德伦理方面的思考,那就是一种疏忽。使用负责任的AI实践和人工监督来确保安全性和隐私性非常重要。AI只能复制它所学到的东西,而它所学到的部分内容有所缺失。因此,在采用AI解决方案之前,企业应对道德伦理因素进行考虑,包括以下方面:
虽然目前AI领域有些监管空白地带,但我们会看到要求透明度和问责制的监管规定将会出现,以消除一些对隐私和道德伦理方面的担忧。例如,欧盟委员会已经呼吁谷歌、脸书和TikTok等大型科技公司采取措施,为AI生成的内容贴上标签,作为其打击互联网虚假信息泛滥的工作之一。欧盟数字服务法规定,很快平台就必须要使用明显的指示物清楚地标记深度伪造内容。
鉴于AI的局限性,人应该始终是最终决策者,同时使用AI来加快这一进程。企业可以使用AI来获得多种选择,然后关键决策者可以迅速采取行动,因此AI将补充而不是取代人类决策。AI和人类一起合作能干的事多于二者单打独斗能干的事。
AI |
人类 |
|
|
公钥基础设施(PKI)等技术的使用可以在防范新出现的AI相关威胁(如深度伪造)和维护数字通信的完整性方面发挥重要作用。
例如,包括Adobe、微软和DigiCert在内的一个领先的行业参与者联盟正在制定一项名为内容来源和真实性联盟(C2PA)的标准。该计划引入了一个开放标准,旨在应对验证和确认数字文件合法性的挑战。C2PA利用PKI生成无可争辩的线索,使用户能够辨别真伪媒介。此规范为用户提供了确定数字文件的来源、创建者、创建日期、位置和任何修改的能力。此标准的主要目标是促进数字媒介文件的透明度和可信度,特别是考虑到在当今环境中,将AI生成的内容与现实区分开来的难度越来越大。
总之,AI将在网络安全领域创造许多机会,而我们仅仅只触及了其作用的冰山一角。AI将被用作防御和进攻工具,既能防范网络攻击也可引发网络攻击。然而,重要的是企业要意识到风险,并立即开始实施解决方案,同时要记住AI无法完全取代人类。