TB是一种计算机存储容量单位,1TB等于1024GB,是一种相当庞大的数据储存单位。而就在近日,微软AI研究团队在Github发布开源训练数据时意外泄露了38TB的隐私数据。

微软38TB数据泄露

根据报道称,微软在GitHub存储库中提供了一个属于微软云存储系统Azure Storage的网址链接,可以用来下载开源代码和用于图像识别的AI模型。

然而,由于微软的AI开发人员在网址中包含了一个过于宽松的共享访问签名(SAS)令牌,此链接竟被设置成授予整个存储账户的权限。也就是说,点进该链接的任何人都能访问与之相关的存储账户的全部内容。

更可怕的是,该链接给予访问者的权限不是只能观看、不能修改的“只读”,而是“完全控制”,意味着任何人都有可能在整个账户中删除、替换或添加恶意内容。

在受到影响的全部数据中,包括了两名微软员工的个人电脑备份,还有用于微软服务的密码、秘钥以及Teams上来自359名微软员工的超三万条内部群聊消息。

对于此事,微软发言人表示,收到Wiz的研究结果之后,他们已经改进了GitHub的秘密扫描服务,该服务能够监控所有公开的开源代码改动,其中包括那些过于宽松的SAS令牌。并表示目前没有用户数据遭到泄露,也没有其他内部服务受到威胁。

数据泄露

数据安全与内部威胁

即使是像微软这样的科技巨头,也可能因为一个小小的配置错误而导致如此大规模的数据泄露。这也为广大AI工程师提了醒,在组织人工智能研究时,必须充分考虑到所需的安全措施。

数据安全

AI时代数据安全

在人工智能和云计算等新兴技术的推动下,如何保护隐私和数据安全,已经成为了每一个科技公司都必须面对的问题。

AI技术的发展,需要以大量数据作为基础,很多开发团队都需要处理大规模的数据,并且需要与同事共享数据或在公共开源项目上进行合作,这就会极大的增加数据泄露风险。

由于AI能够收集和分析大量的数据,并从中获取有关个人的信息,这就可能导致个人隐私受到侵犯。此外,基于人工智能的面部识别技术也带来了一些争议,因为它可以被滥用来监视公众,并且可能对个人自由和隐私产生负面影响。

所以,为了应对这些挑战,我们需要采取一系列的措施来保护个人隐私和数据安全。多个机关、部门都应该共同努力,制定合理的政策并采取相应的措施来解决这些问题。只有这样才能让人工智能技术为我们带来更多的便利和安全。

免责声明:素材源于网络,如有侵权,请联系删稿。