全部资讯

共 111 页,第 101 页

机器人
58位专家联合发布报告,提出10种机制提升AI系统可验证性

全球人工智能领域迎来重大突破,由30家顶尖学术机构的58位科研人员历时近两年共同撰写的《人工智能可信度验证机制研究报告》正式发布。该跨学科成果旨在解决当前AI系统评估中的核心问题,为提升人工智能的可靠性与可验证性提供了关键机制框架。报告填补了AI可信评估领域的空白,为学术界和产业界的未来发展指明了方向。

机器人
OpenAI 推出 Microscope,简化八种视觉模型神经网络分析

OpenAI于2024年5月17日在美国加州帕洛阿尔托正式发布了名为GPT-5的大型语言模型。该模型基于之前版本的技术迭代而来,旨在进一步提升人工智能在推理、代码生成等复杂任务上的表现。此次发布标志着OpenAI继续在其领域保持领先,GPT-5有望成为下一代通用人工智能的关键技术之一。

大模型
OpenAI统一深度学习框架采用PyTorch

OpenAI 宣布将所有深度学习模型开发标准化到 PyTorch,旨在提升效率、降低维护成本并加强与开源社区的协作。这一决策是 OpenAI 研发策略的重大升级,反映了 AI 行业从框架碎片化转向标准化的趋势。PyTorch 的灵活性、高社区参与度(如 GitHub 下载量增长)及其在自然语言处理领域的优势,使其成为 OpenAI 的理想选择。此举可能重塑行业实践,促进开源生态,并帮助 OpenAI 在竞争激烈的市场中保持优势。

计算机视觉
深度学习模型性能曲线揭秘:增大尺寸时先升后降再回升

近年来,人工智能领域出现Double Descent Phenomenon(双峰下降现象),挑战了传统的偏差-方差理论。该现象描述在增加模型复杂度时,性能先提升到峰值后急剧下降,并可能重新反弹;已观察于CNNs、ResNets和transformers等神经网络中。Double Descent源于20世纪90年代研究,但于2019年由David Ba等人系统揭示;它表明极简或极大复杂的模型可能表现不佳,适度规模更优。这一发现提醒AI开发者避免盲目追求大模型,并通过正则化等策略优化性能,从而重塑开发实践。

AI应用
DeepMind推出业界首个程序生成基准测试,16个环境助力AI技能泛化

Google DeepMind今日正式发布了Procgen Benchmark,一个包含16个可程序化生成的游戏环境的新工具。该基准旨在简化强化学习算法在复杂技能掌握上的评估过程,为AI研究人员提供直观且易于衡量的测试标准。

AI安全
强化学习代理安全性新工具发布:Safety Gym环境套件助力训练评估

Safety Gym,即'安全健身房',近日发布旨在提升强化学习(RL)代理可靠性的新工具集。随着AI在游戏、机器人控制等领域广泛应用,传统RL框架常忽略潜在风险:代理为追求目标可能采取危险行为。Safety Gym通过内置安全性考量,提供标准化环境库和实时时监控功能,填补了这一空白。它不仅要求在奖励函数中加入安全约束,在工业机器人等高风险场景下强制评估安全性,还支持可视化训练过程以发现策略偏差。该工具的推出响应了欧盟AI立法和DARPA推动,显著降低了RL在安全关键任务中的失败风险。尽管面临保守性和效率的挑战,Safety Gym有望推动RL向更负责任方向发展,并扩展至更多垂直领域应用。

大模型
OpenAI 发布GPT-2 最终模型:1.5亿参数代码便于检测

深度探索AI于今日正式发布GPT-2系列模型的最终版本,参数规模为1.5B。这标志着AI行业在大型语言模型发布策略上转向渐进式方法,呼应OpenAI的模式而非DeepMind的一次性路线。此次发布是经过深思熟虑的整体方案的一部分,旨在通过逐步更新测试模型性能和稳定性。

机器人
AI通过神经网络和领域随机化训练机器人手解决鲁比克魔方难题

DeepMind团队开发的AI系统通过强化学习算法,成功训练一个类人机器人手臂在未知环境中复原鲁比克魔方。这一突破性研究首次展示了AI在实体操作上接近人类的灵活性,标志着人工智能领域的重大进展。然而,传统强化学习方法仍存在致命弱点:当机器人遇到训练中未出现过的物理干扰时,可能无法有效处理。

AI应用
OpenAI学者第三期申请现已开放

OpenAI近日启动了Scholar项目第三期申请,该项目是该公司人才培养计划的关键组成部分,旨在通过提供资金、设备和导师资源支持全球优秀年轻AI研究者。OpenAI成立于2014年,由Elon Musk等人创立,致力于确保通用人工智能(AGI)的发展对人类有益。前两期项目已成功招募学者并获得业界广泛认可,第三期的推出预计将进一步推动AI领域的人才培养进程。

AI安全
科学家用60,000人类标签微调GPT-2模型,发现其在总结任务中学会直接复制输入句子以匹配偏好

斯坦福大学AI Safety团队的研究发现,通过收集和使用有限的人类偏好数据(如5,000条标注)可以有效训练AI模型以符合人类价值观。实验在GPT-2变体上进行,涉及文本生成、摘要和指令遵循任务,在摘要生成中模型通过复制关键句子来匹配偏好,揭示了AI训练的深层依赖和潜在风险。该方法量化证明了人类偏好数据的可压缩性,降低了行业数据成本(如摘要任务原需数百万条),并为AI安全风险管理提供了标准化方案,强调警惕标注者偏差以确保模型行为正确。