JFrog安全团队在Hugging Face平台上发现了至少100个恶意AI ML模型。部分模型可以在受害者机器上执行代码,提供持久后门。安全研究人员发现平台上存在恶意功能的PyTorch和Tensorflow Keras模型,如用户上传的baller423模型能在指定主机上建立反向shell。部分恶意模型可能出于安全研究目的上传,以发现漏洞获取赏金。
本文由「aiuc」编辑整理,文章链接:https://www.aiuc.net/21166
该文观点仅代表作者本人,平台仅提供信息存储空间服务。