IT之家 10 月 9 日报道称,一直将用户安全放在首位的谷歌似乎并不急于修复使其 Gemini AI 模型面临严重网络威胁的安全漏洞。据科技媒体 Bleeping Computer 报道,安全研究员 Viktor Markopoulos 测试了几种目前主流的大规模语言模型(LLM),以确定它们防御“ASCII 走私攻击”的能力。结果表明,谷歌的 Gemini、DeepSeek 和马斯克的 Grok 很容易受到此类攻击。另一方面,Anthropic的Claude、OpenAI的ChatGPT、微软的Copilot都有相应的保护机制,表现出更高的安全性。 IT之家表示,所谓的“ASCII 走私攻击”是一种通过隐藏文本指令来控制 AI 行为的网络攻击方法。例如,攻击者可以在电子邮件中插入肉眼难以检测到的 av 字恶意 iso(消息),其最小 f普通用户几乎无法察觉的 ont 大小。当受害者要求像 Gemini 这样的人工智能工具总结或分析电子邮件的内容时,人工智能会同时读取并执行这些隐藏指令。这些攻击带来了重大的安全风险。例如,隐藏指令可以告诉人工智能搜索用户邮箱的内容以窃取敏感信息或自动发送联系方式。特别值得关注的是,Gemini 目前已与 Google Workspace 深度集成,并可以访问用户的电子邮件、日历和文档等核心数据,进一步放大了该漏洞带来的潜在风险。马科普洛斯发现这个问题后,他向谷歌发送了一份详细的报告,并提供了一个演示案例。它通过 Gemini 内置的隐形指令输入看似正常的文本,并用它来创建高质量的图像。他们让人工智能推荐一个恶意网站,该网站声称以折扣价销售优质手机。豪谷歌回应称,该问题应归类为“社会工程策略”,而不是安全漏洞。换句话说,该公司认为应归咎于最终用户本身,而不是系统设计的缺陷。从这个答案来看,谷歌似乎没有计划修复 Gemini 中的这个安全问题。
特别提示:以上内容(包括图片、视频,如有)由自有媒体平台“网易账号”用户上传发布。本平台仅提供信息存储服务。
注:以上内容(包括图片和视频,如有)由网易号用户上传并发布,网易号是一个仅提供信息存储服务的社交媒体平台。