导读 有一种方法可以滥用HuggingFaceSafetensors转换工具来劫持AI模型并发动供应链攻击。据《黑客新闻》报道,HiddenLayer的安全研究人员发现了...

有一种方法可以滥用HuggingFaceSafetensors转换工具来劫持AI模型并发动供应链攻击。

据《黑客新闻》报道,HiddenLayer的安全研究人员发现了该漏洞并于上周发布了他们的发现。

对于外行来说,HuggingFace是一个协作平台,软件开发人员可以在其中托管和协作处理无限的预先训练的机器学习模型、数据集和应用程序。

Safetensors是HuggingFace的用于安全存储张量的格式,它还允许用户通过拉取请求将PyTorch模型转换为Safetensor。

这就是问题所在,正如HiddenLayer所说,转换服务可能会受到损害:“有可能将包含攻击者控制的数据的恶意拉取请求从HuggingFace服务发送到平台上的任何存储库,并劫持任何正在使用的模型。通过转换服务提交。”

因此,应该转换的被劫持模型允许威胁行为者对任何HuggingFace存储库进行更改,并声称自己是转换机器人。

此外,黑客还可以窃取SFConversionbot代币(属于发出拉取请求的机器人)并自行出售恶意拉取请求。