人工智能已经在影响着我们生活的许多方面,而且已经影响了几十年。不管是好是坏,这种情况还会继续下去。随着AI日益强大并更深入地融入我们日常现实的结构,因此企业必须实事求是地评估其作为工具和威胁的潜力。
AI让好人和坏人都能更快速地大规模开展工作
机器学习在商业领域的普及使其成为一种有吸引力的工具和目标
围绕AI的炒作有可能掩盖其风险
新出现的威胁范围巨大且种类多样
需要由AI驱动的新的安全方法来对抗AI生成式威胁。
预测生成式AI技术的真实影响的一个问题是围绕该技术的疯狂炒作。甚至生成式AI技术这个词本身也变得有些陈词滥调。想让科技活动的观众席爆满吗? 将AI放在演示文稿的标题中即可。想引起人们对您的软件中的机器学习功能的关注吗? 将其作为“AI”进行营销 这带来了掩盖技术实际情况的恶果——耸人听闻的优势和危险,同时麻醉了许多人对整个话题的注意力。
事实上,许多人——尤其是对技术不太了解的人——并不真正了解AI到底是什么。
简单来说,人工智能就是其字面意思:使用计算机系统来模拟人类智能过程。
示例:语言处理、语音识别、专家系统和机器视觉。
一种机器学习技术,使用多层算法和计算单元来模拟类似人脑的神经网络。
示例:大型语言模型、翻译、人脸识别
Content authenticity
Identity manipulation
Phishing with dynamite
Prompt injection
Machine Hallucinations
Attack sophistication
Custom malware
Poisoned data
Privacy leaks
内容真实性
生成式AI能创建高度逼真的原创内容副本。这不仅给使用AI生成内容的企业带来了潜在的知识产权风险,而且还能让恶意分子窃取并如实地复制各种数据,以冒充原创作品或为其他攻击提供便利。
身份操纵
生成式AI可以在几秒钟内创建超级逼真的图像和视频,甚至可以在生成实时视频时对其进行更改。这可能会削弱人们对各种重要系统的信心,从人脸识别软件到法律系统中的视频证据,再到政治假消息,并破坏人们对几乎所有形式的视觉身份的信任。
使用“炸药”进行网络钓鱼
攻击者可以使用生成式AI工具来逼真地模拟人脸、声音和书面语气,并模仿企业或品牌身份,然后利用这些进行高效且难以检测的网络钓鱼攻击。
提示注入
由于许多企业都在使用现成的生成式AI模型,它们可能会将用于训练或提示其实例的信息暴露给攻击者针对热门模型而改进的注入攻击。如果没有严格的保护措施和频繁的更新,利用基础模型的可攻击漏洞可能会将使用该模型的任何组织暴露于众。
机器幻觉
尽管AI通常可以快速生成令人信服的语音或文本,但这些并不总是准确的。对于依赖AI为用户生成信息或支持内容的企业,以及使用机器学习来进行威胁检测的企业,问题特别严重,因为异常结果的代价可能会非常高昂。
攻击复杂性
由于AI能够以超人的速度编写功能代码,因此它可能被用于以前所未有的速度和复杂性扩展攻击。此外,AI可被用于在被攻破的代码库中检测漏洞,并可通过降低进入门槛来扩大攻击者的范围。
定制的恶意软件
虽然热门的LLM对用户创建恶意代码有一些保护措施,但老练的攻击者可以发现可攻击的漏洞和薄弱环节。被盗或被复制的模型也可以被去除这种保护措施,使恶意分子能够迅速生成几乎无法检测的、高度可定制的漏洞。
中毒数据
攻击不一定需要利用AI本身。相反,他们可以针对用于训练机器学习模型的数据进行虚假输出。然后,可以进一步利用这一点在模型中创建可攻击的漏洞,例如在罪犯数据库中伪造DNA序列,或者只是产生可能损害目标企业的结果。
隐私泄露
使用敏感数据训练或处理敏感数据的AI可能会暴露这些数据,无论是通过缺陷(就像几个主要商业模型所发生的那样),还是通过针对性攻击。
我们要求ChatGPT列出生成式AI带来的最大威胁。以下是它的回应:
生成式AI在提供令人难以置信的创新和创造力潜力的同时,也在网络安全领域带来了独特的挑战和威胁。以下是一些需要考虑的要点:
使AI成为坏人的有用工具的功能可以——也必须——被用来加强网络安全措施。这不仅将使企业能开发更有效、更敏捷的网络安全技术,还可以更好地解决人类的漏洞。