ChatGPT对数据中心网络安全有哪些影响?
近期,OpenAI发布了聊天机器人ChatGPT,因其强大的能力因其了人们的广泛关注,甚至许多人认为世界开始发生了变化。
如果学生可以让ChatGPT为他们写论文,那么大学生们肯定会争先恐后地想出如何利用这款AI工具来完成学业。因为,我们已经看到ChatGPT通过了法学院考试、商学院考试,甚至是行医执照考试。全球各地的员工开始使用它来撰写电子邮件、报告,甚至编写计算机代码。
不过,目前ChatGPT并不完美,其数据库也不是最新的,但它比普通人以前接触过的任何人工智能系统都要强大,用户体验也比企业级系统的人工智能更加友好。
(资料图片)
似乎一旦像ChatGPT这样的大型语言模型变得足够大,并且在其神经网络中拥有足够的训练数据、足够的参数和足够的层,奇怪的事情就会开始发生。它发展了在较小模型中不明显或不可能的“特性”。换句话说,它开始表现得好像它拥有常识和对世界的理解——或者至少是某种近似于这些东西的东西。
通过近期的新闻,我们可以看到各大科技公司争先恐后地做出反应。微软向OpenAI投资了100亿美元,并为 Bing添加了ChatGPT功能,从而使得沉寂了很久了的搜索引擎再次成为话题。
谷歌也宣布了自己的AI聊天机器人计划,并投资了OpenAI的竞争对手Anthropic,后者由前OpenAI员工创立,并拥有自己的聊天机器人Claude。
亚马逊宣布计划建立自己的ChatGPT竞争对手,并宣布与另一家人工智能初创公司Hugging Face建立合作伙伴关系。Facebook的Meta也将快速跟进自己的AI工作计划。
与此同时,幸运的是,安全专家也可以使用这项新技术。他们可以将其用于研究、帮助编写电子邮件和报告、帮助编写代码,以及我们将深入研究的更多方式。
但令人不安的是,坏人也将它用于所有这些事情,以及网络钓鱼和社会工程。他们还使用ChatGPT来帮助他们以几个月前无法想象的规模和保真度来制造深度造假。ChatGPT 本身也可能是一种安全威胁。
接下来,让我们讨论这些AI工具可能对数据中心带来的安全主题,从恶意行为者可能使用的方式开始,在某些情况下,他们已经在使用ChatGPT。然后,我们将探讨网络安全专业人员使用ChatGPT 等人工智能工具的好处和危险。
坏人如何使用 ChatGPT
毫无疑问,恶意行为者已经在使用ChatGPT。那么,ChatGPT将如何用于帮助刺激网络攻击呢。在2 月份发布的黑莓 IT 领导者调查中,53% 的受访者表示它将帮助黑客创建更可信的网络钓鱼电子邮件,49%的受访者指出它有能力帮助黑客提高他们的编码能力。
调查的另一项发现:49%的IT和网络安全决策者表示,ChatGPT将用于传播错误信息和虚假信息,48%的人认为它可用于制作全新的恶意软件。另有46%的受访者表示ChatGPT可以帮助改善现有攻击。
Constellation Research副总裁兼首席分析师Dion Hinchcliffe表示:“我们看到编码人员,甚至是非编码人员使用ChatGPT生成可以有效利用的漏洞。”
毕竟,人工智能模型已经阅读了所有公开发表的内容。包括“每一份研究漏洞报告,”Hinchcliffe说,“所有安全专家的每一次论坛讨论。它就像一个超级大脑,可以用各种方式破坏系统。”
这是一个可怕的前景。
而且,当然,攻击者也可以用它来写作,他补充说。“我们将被来自各地的错误信息和网络钓鱼内容所淹没。”
ChatGPT如何帮助数据中心安全专家
对于使用ChatGPT的数据中心网络安全专业人员而言,云安全联盟首席执行官Jim Reavis表示,他在过去几周内看到了一些令人难以置信的AI工具病毒式实验。
“你可以看到它为安全编排、自动化和响应工具、DevSecOps和一般云容器卫生编写了大量代码,”他说。“ChatGPT生成了大量的安全和隐私政策。也许,最值得注意的是,为了创建高质量的钓鱼电子邮件,我们进行了很多测试,希望使我们的防御在这方面更具弹性。”
此外,Reavis 说,几家主流网络安全供应商在他们的引擎中已经或将很快拥有类似的技术,并根据特定规则进行训练。
“我们之前也看到过具有自然语言界面功能的工具,但还没有一个广泛开放的、面向客户的ChatGPT界面,”他补充道。“我希望很快能看到与ChatGPT接口的商业解决方案,但我认为现在的最佳点是多种网络安全工具与ChatGPT的系统集成以及公共云中的DIY安全自动化。”
他表示,总的来说,ChatGP 及其同行很有希望帮助数据中心网络安全团队更高效地运作,扩大受限资源并识别新的威胁和攻击。
“随着时间的推移,几乎所有网络安全功能都将通过机器学习得到增强,”Reavis说。“此外,我们知道恶意行为者正在使用诸如ChatGPT之类的工具,并且假设您将需要利用A 来对抗恶意AI。”
电子邮件安全供应商如何使用 ChatGPT
例如,电子邮件安全供应商Mimecast已经在使用大型语言模型生成合成电子邮件来训练自己的网络钓鱼检测AI工具。
“我们通常使用真实的电子邮件来训练我们的模型,”Mimecast首席数据科学家兼机器学习工程师洛佩兹(Jose Lopez)说。
为训练集创建合成数据是ChatGPT等大型语言模型的主要优势之一。“现在我们可以使用这种大型语言模型来生成更多电子邮件,”洛佩兹说。
不过,他拒绝透露Mimecast使用的是哪种特定的大型语言模型。他说这些信息是公司的“秘密武器”。
不过,Mimecast目前并不打算检测传入的电子邮件是否由ChatGPT生成。那是因为使用ChatGPT的不仅仅是坏人。AI是一种非常有用的生产力工具,许多员工正在使用它来改进他们自己的、完全合法的通信。
例如,洛佩兹本人是西班牙人,现在正在使用ChatGPT而不是语法检查器来改进自己的写作。
Lopez还使用ChatGPT来帮助编写代码——许多安全专业人员可能正在做的事情。
“在我的日常工作中,我每天都使用 ChatGPT,因为它对编程真的很有用,”洛佩兹说。“有时它是错误的,但它经常是正确的,足以让你对其他方法敞开心扉。我不认为ChatGPT会将没有能力的人转变为超级黑客。”
人工智能驱动的安全工具的兴起
OpenAI已经开始致力于提高系统的准确性。微软通过Bing Chat使其能够访问网络上的最新信息。
Lopez补充说,下一个版本将在质量上有一个巨大的飞跃。此外,ChatGP 的开源版本即将推出。
“在不久的将来,我们将能够针对特定的事物微调模型,”他说。“现在你不只是有一把锤子——你有一整套工具。”
例如,企业可以微调模型以监控社交网络上的相关活动并寻找潜在威胁。只有时间才能证明结果是否比目前的方法更好。
将ChatGPT添加到现有软件也变得更容易、更便宜;3 月 1 日,OpenAI发布了一个API,供开发人员访问 ChatGPT 和语音转文本模型Whisper。
一般来说,企业正在迅速采用人工智能驱动的安全工具来应对比以往任何时候都更大规模的快速演变的威胁。
根据最新的Mimecast 调查,92%的企业已经在使用或计划使用人工智能和机器学习来加强其网络安全。
特别是,50%的人认为使用它可以更准确地检测威胁,49%的人认为可以提高阻止威胁的能力,48%的人认为可以在发生攻击时更快地进行补救。
81%的受访者表示,向电子邮件和协作工具用户提供实时、上下文警告的人工智能系统将是一个巨大的福音。
报告称:“12%的人甚至表示,这种系统的好处将彻底改变网络安全的实施方式。”
Omdia网络安全实践高级分析师Ketaki Borade表示,像ChatGPT这样的人工智能工具也可以帮助缩小网络安全技能短缺的差距。“如果正确提供提示,使用此类工具可以加快更简单的任务,并且有限的资源可以专注于更具有时间敏感性和高优先级的问题。”
“这些大型语言模型是一种根本性的范式转变,”IEEE成员、Applied Science Group创始人兼首席执行官 Yale Fox说。“反击恶意AI驱动攻击的唯一方法是在防御中使用AI。数据中心的安全经理需要提高现有网络安全资源的技能,并寻找专门从事人工智能的新人员。”
在数据中心使用ChatGPT的危险
如前所述,ChatGPT和Copilot等人工智能工具可以帮助安全专业人员编写代码,从而提高他们的效率。但是,根据康奈尔大学最近的研究,使用 AI 助手的程序员更有可能创建不安全的代码,同时认为它比那些没有使用的人更安全。
在不考虑风险的情况下使用ChatGPT的潜在缺点时,这只是冰山一角。
有几个广为人知的ChatGPT或Bing Chat实例,它们非常自信地提供不正确的信息,编造统计数据和引述,或者对特定概念提供完全错误的解释。
盲目信任它的人最终可能会陷入非常糟糕的境地。
“如果你使用ChatGPT开发的脚本对10000台虚拟机进行维护并且脚本存在错误,你将遇到重大问题,”云安全联盟的Reavis说。
数据泄露风险
数据中心安全专业人员使用ChatGPT的另一个潜在风险是数据泄露。
OpenAI让ChatGPT免费的原因是它可以从与用户的交互中学习。因此,例如,如果您要求ChatGPT分析您的数据中心的安全状况并找出薄弱环节,那么您现在已经向ChatGPT传授了您的所有安全漏洞。
现在,考虑一下面向工作的社交网络Fishbowl 在 2 月份进行的一项调查,该调查发现 43% 的专业人士在工作中使用 ChatGPT 或类似工具,高于一个月前的 27%。如果他们这样做,70%的人不会告诉他们的老板。因此,潜在的安全风险很高。
据报道,这就是摩根大通、亚马逊、Verizon、埃森哲和许多其他公司禁止其员工使用该工具的原因。
OpenAI本月发布的新ChatGPT API将允许企业将其数据保密并选择不将其用于训练,但不能保证不会发生任何意外泄漏。
将来,一旦ChatGPT的开源版本可用,数据中心将能够在其防火墙后、在本地运行它,避免可能暴露给外部人员。
伦理问题
最后,Insight的杰出工程师Carm Taglienti表示,使用ChatGPT式技术来保护内部数据中心安全存在潜在的道德风险。
“这些模型非常擅长理解我们作为人类的交流方式,”他说。因此,可以访问员工通信的 ChatGPT 式工具可能能够发现表明潜在威胁的意图和潜台词。
“我们正在努力防止网络黑客攻击和内部环境黑客攻击。许多违规行为的发生是因为人们带着东西走出门外,”他说。
他补充说,像 ChatGPT 这样的东西“对一个组织来说可能非常有价值”。“但现在我们正在进入这个道德领域,人们将在这个领域对我进行介绍并监控我所做的一切。”
这是数据中心可能还没有准备好迎接少数派报告式的未来。
关键词: