Hi!请登陆

GitHub Copilot 更新阻止 AI 模型泄露秘密

2023-2-16 399 2/16

GitHub Copilot 更新阻止 AI 模型泄露秘密

GitHub 更新了 Copilot 的 AI 模型,Copilot 是一种在 Visual Studio 中生成实时源代码和功能推荐的编程助手,并表示它现在更安全、更强大。

该公司表示,将于本周向用户推出的新 AI 模型可以在更短的时间内提供更优质的建议,通过提高接受率进一步提高软件开发人员使用它的效率。

Copilot 将引入一种称为“中间填充”的新范式,它使用已知代码后缀的库并为 AI 工具留下空白来填充,从而与项目的其余部分实现更好的相关性和连贯性 代码。

此外,GitHub 还更新了 Copilot 的客户端,将不需要的建议减少了 4.5%,从而提高了整体代码接受率。

“当我们于 2022 年 6 月首次推出面向个人的 GitHub Copilot 时,平均有超过 27% 的开发人员代码文件是由 GitHub Copilot 生成的,”产品管理高级总监赵书银说。

“如今,GitHub Copilot 支持所有编程语言中平均 46% 的开发人员代码——而在 Java 中,这个数字跃升至 61%。”

GitHub Copilot 更新阻止 AI 模型泄露秘密
CoPilot 随时间推移的接受建议率 (GitHub)

更安全的建议

此 Copilot 更新中的一项重要改进是引入了新的安全漏洞过滤系统,该系统将有助于识别和阻止不安全的建议,例如硬编码凭据、路径注入和 SQL 注入。

“新系统利用 LLM(大型语言模型)来模拟静态分析工具的行为——由于 GitHub Copilot 在强大的计算资源上运行高级 AI 模型,它的速度非常快,甚至可以检测不完整代码片段中的漏洞模式 ”赵说。

“这意味着不安全的编码模式会很快被阻止并被替代建议所取代。”

这家软件公司表示,Copilot 可能会生成密钥、凭据和密码等秘密信息,这些信息可以在新字符串的训练数据中看到。 但是,这些内容完全是虚构的,因此无法使用,并且会被新的过滤系统阻止。

GitHub Copilot 更新阻止 AI 模型泄露秘密
实时阻塞系统示例 (GitHub)

Copilot 代码建议中出现的这些秘密引起了软件开发社区的强烈批评,许多人指责微软使用大量公开可用的数据集来训练其 AI 模型,几乎不考虑安全性,甚至包括错误的数据集 包含秘密。

通过实时阻止编辑器中的不安全建议,GitHub 还可以提供一些抵抗中毒数据集攻击的能力,这些攻击旨在暗中训练 AI 助手提出包含恶意负载的建议。

此时,Copilot 的 LLM 仍在接受训练以区分易受攻击和不易受攻击的代码模式,因此 AI 模型在这方面的性能有望在不久的将来逐渐提高。

Tag:

相关推荐