Palo Alto Networks 周三发布的一项新调查显示,尽管使用 GenAI 进行代码生成存在安全权衡,但该方法目前或多或少是通用的。
由这家网络安全巨头的 Prisma Cloud 部门发起的 2024 年云原生安全状况报告揭示了许多关于人工智能驱动的生成工具的到来如何改变软件开发团队及其安全性的情况的调查结果。
该报告在 12 月至 1 月期间对 10 个国家的 2,800 多名受访者进行了调查,受访者来自从业者和高管职位。
以下是 Palo Alto Networks 最新的云原生安全状况调查中关于 GenAI 和安全性的四个主要结论。
GenAI 工具的普遍采用
GitHub Copilot 等 GenAI 工具已迅速被开发人员采用,而且此类工具引入更多漏洞的发现似乎对使用量影响不大。调查显示,100% 的受访者表示他们的组织正在“拥抱人工智能辅助编码”。
Palo Alto Networks 高级副总裁兼 Prisma Cloud 总经理 Amol Mathur 表示,他发现“这确实是 100%,这让他有点惊讶”。
“这不像 80 后或 90 后——每个受访者都已经这样做了,”马图尔告诉 我们。 “采用速度非常快。”
代码中的更多漏洞
与此同时,许多受访者承认这种采用可能会带来安全后果。调查发现,44% 的组织担心人工智能生成代码可能会引入“不可预见的漏洞和漏洞”。这使其成为报告中发现的第一大云安全问题。
马图尔表示,即使不考虑这些工具生成的代码本身,生产力提高的事实——导致总体生成的软件代码量“巨大”增长——也可能导致应用程序中出现更多漏洞。 。
例如,网络保险公司 Coalition 最近报告称,预计到 2024 年,常见漏洞和暴露 (CVE) 数量将跃升至每月约 2,900 个,比去年增加 25%。未来,“我肯定希望随着人们开始使用人工智能编写更多代码,这一数字将会上升,”马图尔说。
安全仍然是一个“门控因素”
与此同时,调查显示,绝大多数组织仍然将安全视为尽快发布软件的障碍。该报告发现,86% 的受访者表示他们认为“安全性是阻碍软件发布的一个门控因素”。
虽然这种动态远非新鲜事,但值得注意的是,尽管近年来所有的注意力都集中在这个问题上,但它仍然持续存在。
马图尔表示,目前无疑有更多组织已将安全性集成到其软件开发流程中。 “但这在很大程度上仍然不是一个普遍解决的问题——开发人员觉得他们真正了解如何融入安全性。”
断开人工智能驱动的威胁
另一方面,自一年半前 ChatGPT 出现以来,GenAI 增强型网络攻击的兴起一直被视为主要威胁。但也许令人惊讶的是,在《云原生安全状况》报告中接受调查的安全专业人员中,相当大比例的人表示对这一威胁缺乏担忧。
调查发现,只有 43% 的安全专业人士预测“人工智能驱动的威胁将逃避传统检测技术,成为更常见的威胁媒介。”
但事实上,“100% 的人应该预料到”这种情况会发生,马图尔说,因为 GenAI 辅助的网络钓鱼和社会工程只是该技术“降低”攻击者门槛的第一个例子。