微软最近在GitHub上发生了数据泄露事件,共有38TB的私人数据泄露,包括密码、密钥和内部消息,由于错误使用Azure平台的共享访问签名令牌(SAS)所致。SAS令牌的不当使用和缺乏监控使数据曝露了数年,突显了AI模型训练的安全挑战。这一事件强调了大规模数据依赖的AI开发过程需要更强的安全措施和协同工作。
本文由「aiuc」编辑整理,文章链接:https://www.aiuc.net/23382
该文观点仅代表作者本人,平台仅提供信息存储空间服务。
[db:摘要]
微软最近在GitHub上发生了数据泄露事件,共有38TB的私人数据泄露,包括密码、密钥和内部消息,由于错误使用Azure平台的共享访问签名令牌(SAS)所致。SAS令牌的不当使用和缺乏监控使数据曝露了数年,突显了AI模型训练的安全挑战。这一事件强调了大规模数据依赖的AI开发过程需要更强的安全措施和协同工作。
本文由「aiuc」编辑整理,文章链接:https://www.aiuc.net/23382
该文观点仅代表作者本人,平台仅提供信息存储空间服务。