全部资讯
共 116 页,第 21 页
联邦网络安全团队:微软云服务文档问题导致审批争议
2024年底,美国联邦网络安全评估团队在审查微软核心云服务Azure时发现其缺乏足够的安全文档细节,导致无法全面评估系统防御机制。这一事件暴露了云计算行业在快速发展中的安全隐患,并引发对该服务安全透明度的质疑,突显出关键云服务商面临的日益严格的安全审查要求。近年来,亚马逊AWS等主要厂商同样因文档不足受到过批评,在2024年全球数据泄露事件频发的背景下,此次审查促使业界反思文档与操作安全的重要性。随着云计算市场持续增长(预计2024年全球支出将超过5000亿美元),监管力度加强,安全透明度不足的漏洞可能成为常态性问题。
IP KVM设备安全隐患:四大制造商产品可被黑客在BIOS级别操控
低成本、便捷的IP KVM设备近年来被网络安全专家警示,因其能通过网络直接访问计算机核心组件如BIOS/UEFI固件而构成重大威胁。这种设备虽在数据中心、远程办公和云环境中广泛应用,但缺乏安全配置极易被利用进行网络入侵或成为持久后门。专家指出,许多组织在追求效率时忽视了硬件层面的风险,导致固件漏洞频发。过去十年中硬件攻击事件增长约30%,IP KVM相关的固件漏洞占比显著上升,过去两年报告的入侵案例增长了50%。这反映出网络安全领域正经历从软件到硬件的关键转变,呼吁将IP KVM纳入常规审计并采用如NIST固件风险管理指南等措施来提升安全性,以应对日益增长的远程访问依赖所引发的新挑战。
日本OpenAI公司发布青少年安全蓝图:强化年龄保护与心理健康
OpenAI日本子公司近日发布《日本青少年生成式人工智能安全蓝图》,构建三层防御体系以保护未成年用户。技术层面采用动态年龄验证系统,通过分析语言特征等数据实现'智能判断';管理层面推出家长控制平台TeenGuardian,设置五级健康权限等级,并实施七级干预机制(从内容过滤到情境限制)。该方案针对隐私泄露、不良信息接触及沉迷三大风险,结合日本67%的未成年网民比例现状(2024年较五年前增长近两成),以预防性教育管理替代传统'防堵式'防护,获京都大学教授田中宏树高度评价。
GPT-5.4迷你版发布:更小更快,优化编码与多模态任务
OpenAI今日正式发布其最新的GPT-5.4系列模型,包括Mini、Nano及全面优化的大型版。这些小型化模型通过先进的稀疏注意力机制和知识蒸馏技术,在保持性能基础上显著提升了推理速度并降低了资源消耗,使其适用于边缘设备和移动端场景。Mini版适合轻量级应用,Nano模型则专为资源受限环境设计;而优化的GPT-5.4大型版专注于复杂推理任务,提升企业级AI应用效率。此次发布标志着AI技术正快速向更轻量化、高效化方向发展,竞争对手如DeepMind和Anthropic也已跟进小型模型开发。开发者认为该系列在实用性和先进性上取得平衡,但也指出复杂推理能力仍存局限。市场分析机构预测,随着小型模型的兴起,AI应用将进入更广泛领域,并推动相关市场显著增长。
美国人用ChatGPT日查300万条薪酬信息,薪酬查询数据揭秘
一项最新研究揭示,美国民众每天向ChatGPT发送约300万条薪资查询请求,频率几乎相当于劳动力人口滚动查看工资报告。这一趋势促使AI在解决信息不对称方面被重新评估,ChatGPT已成为填补传统数据库空白的重要参考渠道之一。相比之下,LinkedIn等社交平台的用户生成薪资数据滞后且偏差较大。研究基于对ChatGPT对话记录的大规模分析展开。
AI武器化风险引发国际关注:联合国展开讨论(更新)
自主武器系统的发展引发国际社会广泛关注,联合国开始讨论如何监管AI在军事领域的应用。...
Codex Security为何采用AI方法而非SAST?揭秘更低误报的漏洞检测策略
2024年,AI革新网络安全领域,Codex Security的深度约束推理技术通过动态模拟程序行为,显著减少漏洞检测中的误报,并提高效率。过去十年的传统SAST工具因高误报率导致开发团队负担重;Codex在2023年测试中准确识别漏洞,误报仅1/50。该技术已在军工、企业等领域应用,并预测到2026年AI在漏洞检测中的渗透率将达45%,重塑行业格局。尽管算法需优化复杂系统,但AI驱动检测正成为新趋势。
自动驾驶技术迎来商业化拐点:多地开放全无人驾驶
随着技术成熟和政策支持,自动驾驶在多个城市开始商业化运营,标志着这一技术迎来重要转折点。
AI文本纠错工具:写作质量的智能守护者(更新)
AI文本纠错工具正在帮助写作者提高文本质量,从语法错误到逻辑问题,AI都能精准识别并提供修改建议。...
AI数据安全法规趋严:跨境数据流动面临新挑战
各国AI数据安全法规日趋严格,跨境数据流动面临新的合规挑战。