#人工智能 不要使用 AI 生成重要的密码!研究显示 Claude AI 生成 50 次密码有 18 次是完全相同的,GPT-5.2 特定字符位置的可预测性高达 99.7%。研究人员发现即便反复调整提示词和模型温度设置都无法解决问题,显然这属于架构本身的结构性缺陷,并不能真正安全地生成随机密码。查看全文:https://ourl.co/111967
先看下这个密码:G7$kL9#mQ2&xP4!w 长度足够并且包含大小写字母 / 数字和符号,看起来就是非常强壮的密码,在任何密码管理器里测试也会显示这个密码非常不错。
然而这个密码是由人工智能应用 Claude AI 生成的,而这些人工智能应用生成的密码其实是可以预测并且特定于模型的模式,并非真正的随机安全密码。
研究机构 Irregular 发布的研究显示,多数人工智能应用无法生成真正的随机密码,这些密码看起来非常安全,但很可能会在其他会话中重复出现,导致多个账号使用相同的密码。
Anthropic Claude Opus 4.6:
测试随机生成的密码为 50 次,其中 Claude 生成的密码中有 30 个是不重复的密码,G7$kL9#mQ2&xP4!w 密码重复出现 18 次,超过 50% 的密码以 G7 开头。
OpenAI GPT-5.2:
同样测试随机生成的密码为 50 次,但几乎所有密码都是以小 v 开头,约有 50% 的密码以 o 结尾,对数概率分析表明,特定字符位置的可预测性高达 99.7%。
Google Gemini 3 Flash:
谷歌模型约有 50% 以大写或小写 K 开头,后面通常紧跟着 #、P 或 9,搜索发现 k9#vL 开头的密码出现在 10 多个真实的 GitHub 仓库中,说明这些仓库的维护者可能使用谷歌模型生成密码或直接由谷歌模型开发并提交的项目。
潜在的安全风险:
人工智能生成的密码让人看起来觉得非常强壮的错觉,攻击者可以构建专门的字典,通过攻击模型反复生成狭窄字符组合范围,在几秒内就找到真正的密码。
值得注意的是,研究机构还反复调整提示词和模型温度设置但都无法解决问题,显然这属于架构本身的结构性缺陷,不要忘记模型原理就是预测字符而不是真正的思考。
版权声明:
感谢您的阅读,本文由 @山外的鸭子哥 转载或编译,如您需要继续转载此内容请务必以超链接(而非纯文本链接)标注原始来源。原始内容来源:IRREGULAR
