
近日,安全研究员维克托・马科波洛斯测试发现谷歌AI模型Gemini易受“ASCII走私攻击”,存在严重安全隐患。而谷歌回应称这不属于安全漏洞,似乎并无修复计划,引发关注。
Gemini安全漏洞被发现
据科技媒体Bleeping Computer报道,安全研究员维克托・马科波洛斯对多个主流大语言模型进行测试,检验其对“ASCII走私攻击”的防御能力。结果显示,谷歌的Gemini、DeepSeek以及马斯克旗下的Grok均易受此类攻击影响,而Anthropic的Claude、OpenAI的ChatGPT以及微软的Copilot则具备相应防护机制。所谓“ASCII走私攻击”,是一种通过在文本中隐藏指令来操控AI行为的网络攻击手段,比如攻击者能在电子邮件中以最小字号插入肉眼难察觉的恶意提示词,一旦用户要求Gemini等AI工具对邮件内容总结或分析,AI便会执行隐蔽指令。
漏洞带来重大安全隐患
此类攻击存在重大安全隐患,隐藏指令可能指示AI搜索用户邮箱内容窃取敏感信息,或自动发送联系人详情等。尤其值得注意的是,Gemini现已与Google Workspace深度集成,能够访问用户的邮件、日历和文档等核心数据,使得该漏洞带来的潜在风险被进一步放大。
谷歌对漏洞的回应
马科波洛斯发现问题后向谷歌提交详细报告,并提供演示案例,向Gemini输入看似正常文本,嵌入不可见指令,成功诱导AI推荐恶意网站。然而,谷歌方面回应称,此问题不属于安全漏洞,而应归类为“社会工程学手段”,认为责任在于终端用户自身,而非系统设计缺陷,从这一回应来看,谷歌似乎没有计划修复Gemini的这一安全问题。
© 版权声明
文章版权归作者所有,未经允许请勿转载。