视频丨解读开源AI工具滥用及敏感数据泄露 →

大规模的人工智能模型如今为数千个行业提供动力,这个有能力、细心的“数字伙伴”正在加速融入我们的日常生活。由于人工智能的触角更加广泛、根深蒂固,因此也带来了一些风险。我们来看看最近国家安全部曝光的案件。 国家安全部近日披露了一起有关部门直接利用开源框架搭建大规模网络模型的案例,让攻击者在未经许可的情况下随意访问内部网络,造成数据泄露和安全风险。 该案显示,部队人员在处理内部文件时非法使用开源人工智能工具。计算机系统默认开启公网访问且未设置密码,允许国外IP非法访问和下载机密数据。 什么是“开源大规模模型”?存在哪些安全风险? 我们所说的大规模是什么意思刚才提到的开源框架模型?存在哪些安全风险?让我们听听专家是怎么说的。 中国网络空间安全协会人工智能安全治理专家委员会委员王媛媛:大规模开源模型是指将模型架构、参数和训练数据免费暴露给客户的人工智能模型。目前,互联网上有许多大型开源模型。有擅长推理的人,有擅长写代码的人,有擅长文字处理的人,还有擅长图像处理的人。比如你发一份体检报告,可以分析你的身体有哪些异常,如何调整,并得到非常专业的建议。 专家指出,互联网用户在使用人工智能工具时经常忽视的问题之一是其具有存储数据的能力。所有文件、照片互联网用户输入AI的其他数据将由AI存储。 中国网络空间安全协会人工智能安全治理专家委员会委员王媛媛委员:数据安全其实是大规模开源模型中最大的隐患,大家很可能会忽视。加载到开源大模型中的所有数据均由大模型本身存储。它之所以如此工作,是因为只有这样才能分析数据。当你加载int数据在大规模开源模型中相对保密的时候,这个数据实际上是存在被泄露的风险的。 网民将敏感数据输入AI工具后,AI存储的数据怎么会被泄露呢? 首先,这些数据完全暴露给AI工具开发者,他们可以使用权限查看这些数据。此外,当今的许多人工智能工具都是开源的,黑客可以利用大型模型本身的漏洞来渗透大型模型的后端。-缩放模型并获取数据。 确保您的数据安全,切勿将敏感数据输入人工智能工具 由于人工智能工具的数据存储能力,专家警告不要在我们日常使用的人工智能工具中引入敏感数据。 中国网络空间安全协会人工智能安全治理专家委员会委员 王媛媛:另一方面,作为普通网民,我们平时使用互联网大规模开源模式时,要注意不要将个人敏感信息、个人信息上传到大规模开源模式中。 此外,如果您的公司使用大规模开源模型并训练您自己的数据,请记住这必须以私有化的方式实施。这意味着所有数据都存储在本地,因此某些内部数据不会上传到互联网。然而,这种私有化的实施方式也需要基础设施和维护专用设备的投资。因。

Related Posts

Comments are closed.