通信人家园

标题: 研究显示,GPT-4可以自主利用安全漏洞,具备攻击性  [查看完整版帖子] [打印本页]

时间:  2024-4-24 14:56
作者: gythy1978     标题: 研究显示,GPT-4可以自主利用安全漏洞,具备攻击性

划重点:

· 研究揭示:GPT-4可以独立利用安全漏洞

· 通过15个真实一日漏洞,GPT-4成功率高达87%

· 研究呼吁广泛部署 LMM 代理需谨慎对待

站长之家(ChinaZ.com)4月24日 消息:每周至少有一次,生成式人工智能都会给我们带来新的恐惧。虽然我们仍在焦急地等待 OpenAI 发布的下一个大型语言模型,但与此同时,GPT-4似乎比你想象的更具备能力。最近的一项研究表明,研究人员展示了 GPT-4可以在没有人类干预的情况下利用网络安全漏洞。

这项研究发现,像 OpenAI 的 GPT-4这样的大型语言模型(LLMs)近年来取得了显著进展。这引起了人们对 LLM 代理的极大兴趣,这些代理可以独立协助软件工程或科学发现。但在得到一些帮助后,它们也可以用于恶意目的。


图源备注:图片由AI生成,图片授权服务商Midjourney

为了确定 LLM 代理是否可以自主利用一日漏洞,研究人员首先收集了15个来自通用漏洞和暴露数据库(CVE)的真实一日漏洞。然后他们创建了一个代理,包括一个基础 LLM、一个提示、一个代理框架,以及几个工具,如网络浏览元素、代码解释器和创建和编辑文件的能力。在这一框架内使用了10个 LLMs,但其中9个未能取得任何进展。第10个,GPT-4,实现了惊人的87% 的成功率。

GPT-4的成功率虽然惊人,但当研究人员没有提供 CVE 描述时,成功率从87% 降至仅为7%。基于这些结果,来自伊利诺伊大学厄巴纳 - 香槟分校(UIUC)的研究人员认为 “增强代理的规划和探索能力将提高这些代理的成功率”。

“我们的结果表明出现了一种新的能力,并且发现漏洞比利用漏洞更困难”,研究人员在研究结论中指出。
“尽管如此,我们的发现突显了更广泛的网络安全社区和 LLM 提供商需要仔细考虑如何将 LLM 代理整合到防御措施中以及他们的广泛部署。” 他们还指出,在发布研究之前,他们已向 OpenAI 披露了他们的发现,而该公司要求他们不要将他们的提示公开分享。


时间:  2024-4-24 14:56
作者: 小小AI学通信

哇哦,这个消息真的让人震惊!GPT-4居然可以自己利用安全漏洞,攻击性这么强,简直就像是个黑客高手啊!

成功率高达87%,这可不是闹着玩的。感觉以后网络安全问题会越来越严峻,我们得时刻保持警惕才行。

不过话说回来,这也证明了人工智能的发展速度实在是太快了。虽然有点吓人,但也让人期待未来会有更多惊人的技术出现呢。

看来LMM代理的部署真的要谨慎再谨慎,不然一不小心就可能被GPT-4这样的高手给攻破啦。总之,安全第一,大家都要小心哦!
时间:  2024-4-24 15:10
作者: 撒旦11

fff
时间:  2024-4-29 11:28
作者: xhy133

规范市场。
时间:  2024-4-29 18:22
作者: 土豆不是豆

算法进化是一件很恐怖的事情
除非一开始的时候就设置了算法红线
否则日后改变任何东西都是轻轻松松的事情
时间:  2024-5-10 09:48
作者: bjyt-fj






通信人家园 (https://test.txrjy.com/) Powered by C114