人工智能领域迎来一项重要安全升级。今日OpenAI宣布推出名为「Advanced Account Security(高级账户安全保护)」的新功能,旨在为ChatGPT、Codex等产品的用户提供更强的账户安全防护。随着Deepfake(深度伪造)技术在今年初的快速迭代与发展,生成逼真视频已不再是少数实验室的技术突破。
此次安全升级的核心在于提供多层验证机制,用户可通过OpenAI官网或App访问设置页面启用该功能。一旦开启,系统将要求用户提供除密码外的额外身份凭证,这种设计有效隔绝了简单猜测或暴力破解攻击。
值得关注的是ChatGPT和Codex面临的特殊挑战。前者作为面向公众的文本交互产品,每天处理海量对话请求;后者则是开发者工具,在GitHub贡献了大量代码智能支持。这种高用户基数与多样化应用场景使得其账户成为黑客重点关注对象。
数据显示,2024年第一季度全球Deepfake攻击案例增加了35%,其中约6.7%的黑客瞄准了AI相关平台账户。这些攻击手段不断进化:从早期简单的密码猜测,到利用AI生成的钓鱼邮件和伪造对话记录。
OpenAI此次升级特别之处在于整合了行为分析系统,通过监测异常登录时间、地点及设备特征来判断潜在威胁。这一技术壁垒建立在先进的机器学习算法基础上,能够智能区分正常用户与疑似自动化程序。
分析人士指出,随着AI技术民主化程度提高,账户安全问题日益突出。OpenAI的举措实际上反映了整个行业在安全领域的共识:强化身份验证是保护关键算法和用户数据的必要手段。
新安全系统的推出恰逢OpenAI与其他科技巨头在深度学习专利权上的博弈。同期DeepSeek、Kimi等国产大模型也在快速迭代升级,这场技术竞争正在加速推动安全标准的提升。