Hugging Face AI 平台曝出 100 个恶意代码执行模型

[db:摘要]

研究人员在 Hugging Face AI 平台发现 100 个恶意机器学习模型,可能允许攻击者在用户机器上注入恶意代码。恶意 AI 模型利用 PyTorch 等方法执行恶意代码,加剧安全风险。为降低风险,AI 开发者应使用新工具提高 AI 模型安全性。发现的恶意模型凸显了恶意 AI 模型对用户环境的风险,需要持续警惕和加强安全性。

本文由「aiuc」编辑整理,文章链接:https://www.aiuc.net/21150

该文观点仅代表作者本人,平台仅提供信息存储空间服务。

(0)
aiucaiuc
上一篇 2024年3月1日
下一篇 2024年3月1日

相关推荐

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注