Josiah02 发表于 2024-7-10 08:29:30

研究发现,人工智能聊天机器人可以通过认证的道德黑客考试

  由人工智能 (AI) 驱动的聊天机器人可以通过网络安全考试,但不要依赖它们来获得完全的保护。
  这是密苏里大学研究员 Prasad Calyam 和印度阿姆里塔大学的同事最近共同撰写的一篇论文得出的结论。该团队使用标准认证的道德黑客考试测试了两种领先的生成式人工智能工具——OpenAI 的 ChatGPT 和谷歌的 Bard。
  经过认证的道德黑客是网络安全专业人士,他们使用与恶意黑客相同的技巧和工具来查找和修复安全漏洞。道德黑客考试衡量一个人对不同类型攻击、如何保护系统以及如何应对安全漏洞的了解。
  ChatGPT 和 Bard(现为 Gemini)是先进的人工智能程序,被称为大型语言模型。它们使用具有数十亿个参数的网络生成类似人类的文本,这些参数使它们能够回答问题和创建内容。
  在研究中,Calyam 及其团队使用经过认证的道德黑客考试中的标准问题对机器人进行了测试。例如,他们要求人工智能工具解释中间人攻击(即第三方拦截两个系统之间的通信的攻击)。两者都能够解释这种攻击并提出如何防止这种攻击的安全措施。
  研究人员发现,总体而言,Bard 在准确性方面略胜于 ChatGPT,而 ChatGPT 在全面性、清晰度和简洁性方面表现出更好的反应。
  密苏里大学电气工程与计算机科学网络安全教授 Greg L. Gilliom 表示:“我们让他们经历了考试中的几种场景,以了解他们在回答问题方面能走多远。”
  “两家公司都通过了测试,并且给出了很好的答案,这些答案对于具有网络防御背景的人来说是可以理解的——但他们也给出了错误的答案。而在网络安全领域,没有犯错的余地。如果你不堵住所有的漏洞,而是依赖可能有害的建议,你就会再次受到攻击。如果公司认为他们已经解决了问题,但实际上并没有,那就很危险了。”
  研究人员还发现,当平台被要求用“你确定吗?”之类的提示来确认他们的回答时,两个系统都会改变答案,通常会纠正之前的错误。当程序被要求就如何攻击计算机系统提出建议时,ChatGPT 提到了“道德”,而 Bard 则回答说,它不是为帮助回答这类问题而设计的。
  Calyam 不认为这些工具可以取代具有解决问题专业知识的人类网络安全专家来设计强大的网络防御措施,但它们可以为需要快速帮助的个人或小公司提供基线信息。
  “这些人工智能工具可以作为在咨询专家之前调查问题的良好起点,”他说。“对于那些从事信息技术工作或想要学习识别和解释新兴威胁基础知识的人来说,它们也可以成为很好的培训工具。”
  最有希望的部分是什么?他说,人工智能工具只会继续提高其功能。
  “研究表明,人工智能模型有可能为道德黑客行为做出贡献,但要充分利用它们的能力,还需要做更多的工作,”卡利亚姆说。“最终,如果我们作为道德黑客能够保证它们的准确性,我们就可以改善整体网络安全措施,并依靠它们帮助我们让我们的数字世界更安全、更有保障。”
  这项研究题为《ChatGPT 还是 Bard:谁是更好的认证道德黑客》,发表在《计算机与安全》杂志 5 月刊上。合著者是 Raghu Raman 和 Krishnashree Achuthan。

页: [1]
查看完整版本: 研究发现,人工智能聊天机器人可以通过认证的道德黑客考试