HuggingFace平台发现恶意机器学习模型,安全扫描工具难以检测
时间:2025-02-15 13:40
小编:小世评选
近日,IT之家报道了网络安全领域的重要发现:研究人员在HuggingFace这一广受欢迎的机器学习模型共享上,发现了两个具有潜在危害的恶意机器学习(ML)模型。这些模型采用了一种高速而隐蔽的手段,成功规避了大多数现有安全扫描工具的检测,为机器学习模型的应用和分发带来了新的安全隐患。
据ReversingLabs的安全研究员Karlo Zanki介绍,这两个恶意模型在提取时会生成特定的pickle文件,而文件的开头则包含了恶意的Python代码。这段代码被设计为连接到一个硬编码的IP地址,从而导致潜在的数据泄露或系统攻击。此手段得名为“nullifAI”,它的目的在于通过显式的编程策略,使这些恶意模型在安全检测过程中不被识别。这种方法标志着一种新的对抗策略,可能会进一步挑战网络安全防护措施。
HuggingFace上被发现的这两个模型分别为glockr1/ballr7和who-r-u0000/0000000000000000000000000000000000000。根据研究人员的分析,这些模型的存在更像是概念验证(Proof of Concept,简称PoC),而不是实际的供应链攻击案例。这一发现引发了对机器学习模型安全性的新关注,因为pickle序列化格式在机器学习模型的存储和共享中非常普遍,而其本身就被认为存在安全隐患。
pickle文件的强大之处在于它能够将Python对象序列化为字节流,并在反序列化时重构这些对象。这一过程同样使得恶意代码的执行成为可能,尤其是在文件加载和反序列化时,攻击者可以插入恶意指令。Zanki提醒说,这两种模型的pickle文件虽然进行了特殊的压缩(使用了7z格式),但在构造上依然与PyTorch的默认服务存在关联。
后续的分析表明,即使在pickle文件出现反序列化错误的情况下,损坏的文件仍然能够被部分反序列化并执行其中的恶意代码。这种现象给当前的安全防护提出了挑战,尤其是当恶意载荷巧妙嵌入在文件流的开头时,许多现有的安全检测工具往往毫无办法。
为了应对这一问题,安全界对于pickle文件的扫描工具进行了更新,推出了新的Picklescan工具版本以增强对于恶意模型的检测能力。Zanki指出,pickle文件的反序列化是一个顺序操作的过程,程序在处理到每个操作码时都会执行相应的指令,直到所有的操作完成或是遇到损坏的部分。正是由于恶意代码的早期插入,使得HuggingFace的安全工具未能识别出潜在的安全风险。
这一事件不仅让我意识到机器学习模型库的安全问题亟需引起重视,也告诉我们在使用开源技术时必须提高警惕。数据科学家和开发者在选择和使用模型时,务必要对其来源进行严格的审查,并对模型的组成部分进行深入分析。公众也应该看到,随着机器学习技术的日益普及,攻击者的目标可能不再局限于敏感数据的窃取,更多的是利用这些模型进行更复杂的攻击。
此事件再一次印证了网络安全的重要性,尤其是在数据科学领域。随着技术的不断进步,确保人工智能模型的安全性将是一项持续的挑战。一方面,研究人员需开发出更先进的检测工具,以应对不断变化的攻击手段;另一方面,业界也应加强对安全意识的,以提升整体的安全防护能力。
而言,HuggingFace上恶意机器学习模型的现象是现今网络安全环境中的一体缩影。只有通过文献研究、技术迭代和社区合作,才能不断完善安全机制,确保我们享受人工智能带来的便利,而不被潜在的风险所困扰。希望未来能够在技术上实现更完备的防护措施,让机器学习的应用更加安全。