AI安全

共 30 篇文章

AI安全
OpenAI如何塑造ChatGPT行为?公众参与新计划揭晓

DeepSeek近日宣布对其AI语言模型ChatGPT的行为塑造机制进行透明化说明,并推出一系列改进计划,旨在提升AI伦理、安全性和用户自定义体验。此举不仅公开模型运作方式,还体现了DeepSeek在快速发展的人工智能领域的重要战略调整。

AI安全
AI公司发布文本分类器,自动区分机器生成与人类撰写的内容

DeepMind近日推出一款AI文本分类系统,旨在自动辨别人工智能生成的文本与人类原创内容。该工具基于机器学习算法,分析语言模式、结构和上下文特征,并使用多样化数据集训练以提高泛化能力,应用于媒体、教育等领域来维护真实性和版权。背景是AI生成内容快速发展带来的虚假信息风险,DeepMind强调开源以促进协作,并承认系统存在误判局限性。此举被视为AI伦理的关键进展,可能推动行业主动防范生成内容的滥用和提升信任标准。

AI安全
微软与OpenAI延长合作协议,深化科技伙伴关系

OpenAI与Microsoft宣布延长战略合作伙伴关系,以强化在人工智能技术研发、计算资源支持及模型商业化的协作。此次协议涵盖硬件共享、数据隐私保护和技术扩展,旨在应对日益激烈的行业竞争与全球AI市场挑战。合作延续将利用Microsoft的Azure云平台提升OpenAI处理海量数据的能力,并促进其在教育、医疗等领域的应用。此举标志着科技巨头从竞争转向合作的趋势,预计将推动AI技术的民主化发展,并为应对未来伦理与监管问题提供框架。

AI安全
OpenAI与高校合作研究语言模型滥用:新报告揭示虚假信息风险及防控策略

OpenAI联合乔治敦大学信息环境中心及斯坦福互联网观察所,共同研究大型语言模型(LLMs)在传播虚假信息中的潜在风险。研讨会分析显示,LLMs可能生成难以察觉的误导性内容,如虚假医疗建议或伪造新闻评论,并被恶意利用破坏社会稳定。报告提出多学科框架,涵盖技术过滤、政策监管及公众教育方案,并以实际案例评估其有效性。未来随着AI能力扩展,该领域研究将更加重要,全球政策制定者需参与应对。

AI安全
OpenAI研究员Lilian Weng专注于应用型人工智能发展

知名AI研究员Lilian Weng正式加入OpenAI,负责Applied AI Research团队工作。这位出生于中国的移民学者此前在麻省理工学院深耕机器学习基础研究,此次转向应用型开发标志着OpenAI战略调整的关键一步。随着全球AI市场规模从2015年的380亿美元增长至2023年超3700亿美元,公司正从纯理论探索转向现实应用。这一转变旨在应对ChatGPT等产品引发的伦理争议,推动AI在医疗、金融等领域安全落地。同时,商业化带来的算法偏见等问题成为挑战,OpenAI强调将通过多学科方法解决。2040年预测显示,AI将创造数百万岗位并助力应对气候变化等关键问题。

AI安全
ChatGPT登场:对话AI模型的创新突破

OpenAI 推出 ChatGPT,标志着对话式人工智能的重大突破。与传统单向查询系统不同,ChatGPT 支持多轮连续对话,能够记忆上下文、自我修正错误并质疑不合理假设,在客户服务和教育等领域展现出应用潜力。它克服了早期 AI 系统如 Eliza 的局限,基于深度学习实现更复杂的互动。然而,ChatGPT 也面临 bias 和隐私安全等伦理挑战,并正在通过优化训练数据来缓解这些问题。OpenAI 认为,ChatGPT 的成功将推动 AI 向更人性化的方向发展,并可能作为下一代模型(如GPT-4)的基础框架。

AI安全
DALL-E API 开启公共Beta:开发者今可构建应用

OpenAI 正式向全球开发者开放 DALL-E API,这是一个基于其先进图像模型的服务接口,旨在简化开发流程并降低 AI 图像生成的门槛。此举是 OpenAI 在图像生成领域的重要里程碑,过去该公司已推出 ChatGPT 等模型。API 的开放将促进快速应用创新,例如在游戏开发、社交媒体和教育中生成定制图像;然而,也带来了网络安全和隐私滥用的风险,OpenAI 正在与社区合作制定道德规范以防范。这反映了 AI 技术从实验室转向实际应用的趋势,并可能激发更多 API 合作,推动技术共享的同时引发对负责任使用的讨论。

AI安全
OpenAI 推出改进版内容审核 API 工具,免费开放给开发者

OpenAI今日推出全新「Moderation endpoint」工具,全面升级原有内容审核机制并免费开放。随着2023年全球AI生成内容投诉增长17%,该工具旨在提升审核效率与精度。核心升级包括采用Transformer架构使文本分析准确率突破92%,响应延迟降至150ms以内,新增多模态审核能力。这不仅降低了开发者合规成本(如某直播平台可节省20万运维费用),还响应了AI治理趋严的趋势,推动行业标准提升。业界领先企业如Meta已快速跟进采用该模型开发Turi系统,预示OpenAI可能通过开发者反馈机制构建社区共建的安全审核体系。

AI安全
DALL-E beta测试即将邀请百万用户,免费信用额度每月重置

OpenAI宣布将在未来几周内向其DALL-E等待列表用户发送一百万份邀请,旨在通过免费信用额度机制扩大用户群并提升市场竞争力。该机制允许用户每月使用一定数量的免费信用额度生成图像,同时可付费购买额外服务。此举正值AI生成内容市场快速扩张之际,体现了OpenAI在该领域的战略调整和商业化探索。

AI安全
Cohere、OpenAI与AI21 Labs联合制定大型语言模型最佳实践

全球领先的三家公司Cohere、OpenAI和AI21 Labs近日联合发布了大型语言模型开发与部署的最佳实践指南,名为《LLM响应最佳实践:从数据隐私到可解释性》。该文件涵盖七个关键领域,包括数据隐私、安全性、公平性和模型透明度等,并强调在技术快速迭代的同时需关注伦理责任,推动行业从军备竞赛转向负责任开发。指南已被纳入麻省理工课程体系,并获超过20家科技公司参考,亚马逊技术副总裁指出正确应用模型比优化算法更为关键。三家公司将共同建立审查机制评估现有模型,标志着AI行业迈向规范化的重要转折点。