Artificial Intelligence and Digital Trust | DigiCert Insights

人工智能
与数字信任

有关人工智能
与网络安全交叉点的最新深入解析

GenAI:生成新的威胁。与机会。

人工智能已经在影响着我们生活的许多方面,而且已经影响了几十年。不管是好是坏,这种情况还会继续下去。随着AI日益强大并更深入地融入我们日常现实的结构,因此企业必须实事求是地评估其作为工具和威胁的潜力。

Generative AI | DigiCert Insights

概览:AI对比AI

  • AI让好人和坏人都能更快速地大规模开展工作

  • 机器学习在商业领域的普及使其成为一种有吸引力的工具和目标

  • 围绕AI的炒作有可能掩盖其风险

  • 新出现的威胁范围巨大且种类多样

  • 需要由AI驱动的新的安全方法来对抗AI生成式威胁。 

AI vs. AI | DigiCert Insights

1952

Arthur Samuel开发了首个能自主学习的计算机程序——跳棋游戏。

97%

的企业主认为ChatGPT将使他们的企业受益。   

来源:Forbes Advisor, 2024

75%

的消费者担忧使用AI的企业。 

来源:Forbes Advisor, 2024

3/4

接受CSO online访谈的企业在过去12个月内看到了网络攻击的增加,大多数人认为其原因是使用生成式AI的恶意分子的增加。

来源:CSO Online, 2023

46%

的企业认为,生成式AI使其更容易遭受攻击。 

来源:CSO Online, 2023

4070亿(美元)

预计2027年AI的市场规模将达到4070亿美元,2022年为869亿美元。

流行语简介

预测生成式AI技术的真实影响的一个问题是围绕该技术的疯狂炒作。甚至生成式AI技术这个词本身也变得有些陈词滥调。想让科技活动的观众席爆满吗? 将AI放在演示文稿的标题中即可。想引起人们对您的软件中的机器学习功能的关注吗? 将其作为“AI”进行营销 这带来了掩盖技术实际情况的恶果——耸人听闻的优势和危险,同时麻醉了许多人对整个话题的注意力。

事实上,许多人——尤其是对技术不太了解的人——并不真正了解AI到底是什么。 

AI Chip | DigiCert Insights
人工智能——能思考的机器

简单来说,人工智能就是其字面意思:使用计算机系统来模拟人类智能过程。 

示例:语言处理、语音识别、专家系统和机器视觉。 

Machine Learning | DigiCert Insights
机器学习——能自主思考的机器

算法控制的计算机系统,能在数据集上进行训练后自动学习和适应。 

示例:内容推荐算法、预测分析、图像识别

Deep Learning | DigiCert Insights
深度学习——像人类一样思考的机器

一种机器学习技术,使用多层算法和计算单元来模拟类似人脑的神经网络。 

示例:大型语言模型、翻译、人脸识别

智能攻击

Content authenticity

Identity manipulation

Phishing with dynamite

Prompt injection

Machine Hallucinations

Attack sophistication

Custom malware

Poisoned data

Privacy leaks

内容真实性

生成式AI能创建高度逼真的原创内容副本。这不仅给使用AI生成内容的企业带来了潜在的知识产权风险,而且还能让恶意分子窃取并如实地复制各种数据,以冒充原创作品或为其他攻击提供便利。 

身份操纵

生成式AI可以在几秒钟内创建超级逼真的图像和视频,甚至可以在生成实时视频时对其进行更改。这可能会削弱人们对各种重要系统的信心,从人脸识别软件到法律系统中的视频证据,再到政治假消息,并破坏人们对几乎所有形式的视觉身份的信任。 

使用“炸药”进行网络钓鱼

攻击者可以使用生成式AI工具来逼真地模拟人脸、声音和书面语气,并模仿企业或品牌身份,然后利用这些进行高效且难以检测的网络钓鱼攻击。 

提示注入

由于许多企业都在使用现成的生成式AI模型,它们可能会将用于训练或提示其实例的信息暴露给攻击者针对热门模型而改进的注入攻击。如果没有严格的保护措施和频繁的更新,利用基础模型的可攻击漏洞可能会将使用该模型的任何组织暴露于众。  

机器幻觉

尽管AI通常可以快速生成令人信服的语音或文本,但这些并不总是准确的。对于依赖AI为用户生成信息或支持内容的企业,以及使用机器学习来进行威胁检测的企业,问题特别严重,因为异常结果的代价可能会非常高昂。 

攻击复杂性

由于AI能够以超人的速度编写功能代码,因此它可能被用于以前所未有的速度和复杂性扩展攻击。此外,AI可被用于在被攻破的代码库中检测漏洞,并可通过降低进入门槛来扩大攻击者的范围。  

定制的恶意软件

虽然热门的LLM对用户创建恶意代码有一些保护措施,但老练的攻击者可以发现可攻击的漏洞和薄弱环节。被盗或被复制的模型也可以被去除这种保护措施,使恶意分子能够迅速生成几乎无法检测的、高度可定制的漏洞。 

中毒数据

攻击不一定需要利用AI本身。相反,他们可以针对用于训练机器学习模型的数据进行虚假输出。然后,可以进一步利用这一点在模型中创建可攻击的漏洞,例如在罪犯数据库中伪造DNA序列,或者只是产生可能损害目标企业的结果。  

隐私泄露

使用敏感数据训练或处理敏感数据的AI可能会暴露这些数据,无论是通过缺陷(就像几个主要商业模型所发生的那样),还是通过针对性攻击。 

来自AI本身

我们要求ChatGPT列出生成式AI带来的最大威胁。以下是它的回应: 

生成式AI在提供令人难以置信的创新和创造力潜力的同时,也在网络安全领域带来了独特的挑战和威胁。以下是一些需要考虑的要点:

  1. 制作复杂巧妙的虚假内容
  2. 自动化的网络攻击
  3. 规避传统安全措施
  4. AI的武器化
  5. 隐私问题
  6. 数字证据的操纵
  7. AI驱动的网络威胁行为者的出现
ChatGPT Reply | DigiCert Insights

智能安全

使AI成为坏人的有用工具的功能可以——也必须——被用来加强网络安全措施。这不仅将使企业能开发更有效、更敏捷的网络安全技术,还可以更好地解决人类的漏洞。

Artificial Intelligence and Digital Trust 
更快、更准确的检测

AI能够进行人类大脑可能做不到的模式识别。通过为系统和人类行为创建更精细、更全面的基线,机器学习能让组织识别最细微的异常。

Artificial Intelligence and Digital Trust
快速评估与适应

通过分析外部信息,例如在其他地方检测到的威胁,并以比人类更快的速度调整安全措施,AI可以使组织在很短的时间内建立复原力高的、能自我完善的安全策略。

Artificial Intelligence and Digital Trust
减少人为错误

人类往往是任何网络安全计划中最薄弱的环节。通过为某些任务实现自动化并以更高的准确性和速度执行这些任务,AI可以减少人为错误,同时为需要人去执行的关键任务腾出更多资源。

Artificial Intelligence and Digital Trust 
教育与效率

企业可以使用AI工具进行更真实的模拟和培训,帮助团队更快地学习先进的网络安全技术和技能,使专家能更高效地工作,加强创新,并加快新的网络安全工具的产生。

Artificial Intelligence and Digital Trust
网络安全

AI的即时模式识别可以通过重新路由来自易受攻击服务器的流量以自动应对威胁,更快、更频繁地扫描大量设备,在攻击传播之前将其隔离,并最大限度地减少敏感数据的暴露。 

Artificial Intelligence and Digital Trust
威胁应对

由于AI可以跨各种系统和连接立即采取行动,同时处理大量数据,因此它能让企业减轻极其复杂的攻击,可能会远远早于传统手段检测到威胁之前做到这一点。

Artificial Intelligence and Digital Trust
自动化的管理

证书到期到补丁管理,AI可以承担各种繁琐任务,并帮助企业掌握日常安全状况。 

Artificial Intelligence and Digital Trust
规模与速度

AI可以在全球范围内推出并更新策略与解决方案,其速度比人类团队所能管理的速度高出几个数量级。 

Artificial Intelligence and Digital Trust
网络钓鱼、身份与IP保护

通过教授AI识别AI生成的内容,恶意内容、误导内容或欺诈内容可以在有机会欺骗用户之前被迅速标记和删除。这不仅可以实现可靠的反网络钓鱼计划,还可以防止其他形式的身份欺骗,并为原创内容和IP提供保护。 

相关资源

网络研讨会
为后量子世界做好准备
Post Quantum Computing Insights
博客
确定用于进行PQC准备的加密资产
Preparing for the Quantum World with Crypto-Agility
报告
2022年度Gartner PQC报告