近期,利用生成式AI的钓鱼邮件和语音克隆技术,正对Gmail用户发起高精度攻击,连知名科技投资人、Y Combinator CEO Garry Tan也公开表示“差一点中招”。此类诈骗结合AI伪造的“熟人身份”与紧急场景,欺骗性远超传统手段。这种诈骗手法的高明之处在于其逼真性。诈骗者不仅能伪装成谷歌的业务电话号码,还能利用AI技术生成接近完美的人工语音,他们甚至会使用谷歌表单等工具发送看似合法的文件,以增加可信度。比如在一个案例中,受害者收到一条Gmail账户恢复请求的通知后,紧接着接到了一通自称来自谷歌的电话,称受害人的账户在过去一周内遭到攻击,试图通过制造紧迫感来获取信任。这是骗子通过AI提取目标公开视频中的声音样本,生成伪造语音电话,催促用户点击邮件中的钓鱼链接。
作为拥有超过25亿用户的全球最大电子邮件服务之一,Gmail成为了网络犯罪分子的重点目标。而为了阻断AI钓鱼诈骗,要注意以下四点:
1. 二次确认“紧急请求”或来自权威部门的信息
AI诈骗的核心是利用人性弱点——对权威的服从、对紧急事件的焦虑。因此任何涉及紧急事件、转账、密码重置等的要求,先冷静一下,采取行动前,必须通过电话或线下二次确认,而且一定要使用已知的真实号码,而非邮件中提供的新号码。
2. 启用谷歌高级保护(Advanced Protection)
强制使用物理安全密钥(如YubiKey)登录,阻止钓鱼网站窃取密码。
3. 警惕“像素级模仿”邮箱
点击前将鼠标悬停在发件人名称上,检查完整邮箱地址,注意形近字符(如“rn”伪装“m”)。
4. 限制公开数据喂养AI
在Facebook 、LinkedIn等平台隐藏个人联系方式,避免语音样本被窃取;启用Gmail“保密模式”(防止邮件内容被转发)。