人工智能在恶意软件分析中的局限性
关键要点
- 大型语言模型(LLM)在恶意软件分析中的准确性仅为约5%。
- 45%的应用程序未在其代码库中找到调用敏感API的情况,但若考虑依赖关系,这一比例仅为5%。
- 开源组件在Java应用程序代码中占比高达71%,但仅有12%的导入代码被应用程序实际使用。
- 需要监控与新技术相关的风险,特别是人工智能技术对软件供应链的潜在威胁。
人工智能和大型语言模型在恶意软件分析方面仍然存在不足。根据 的报道,LLMs只有大约5%的案例能够准确分类恶意软件。此外,Endor LabsStation9研究团队指出,45%的应用程序在其代码库中没有发现调用敏感API的情况,而如果考虑依赖关系,这一比例的下降至5%表明,API分析不足可能导致安全风险的低估。
指标 | 百分比
—|—
准确分类恶意软件的LLM案例 | 约5%
应用程序调用敏感API | 45%(无依赖)
应用程序调用敏感API | 5%(有依赖)
开源组件在Java代码中的占比 | 71%
被实际使用的导入代码比例 | 12%
Henrik Plate,Endor LabsStation9的首席安全研究员表示:“人工智能相关新技术的快速扩展及其与许多其他应用程序的集成是非常显著的,但同样重要的是监控它们带来的风险。如果所选择的包引入恶意软件和其他风险,可能对软件供应链造成相当大的损害。”
随着技术的不断演进,相关企业和开发人员需要更加重视通过有效的API分析来识别和管理潜在的安全漏洞,以确保软件的安全性和稳定性。