04月28日 · 科技早报

天眼早报

科技|2026年04月28日|116 分钟阅读
来源:1176 条推文 + 250 篇 RSS 文章·Lanyun·BatchV2 生成·2026-04-27 — 2026-04-28
分享
AI 速读22 条精选

🤖 AI 大模型

𝕏 小米开源 MiMo-V2.5 系列:100 万上下文、MIT 许可,覆盖代码智能体与多模态

小米 MiMo正式开源MiMo-V2.5MiMo-V2.5-Pro,采用MIT 许可,支持商业部署、继续训练和微调。两款模型均支持100 万 token上下文;其中 Pro 版采用 1.02T/42B MoE 架构,主打 agent 与编程任务,另一款则为 310B/15B MoE 多模态模型,支持文本、图像、视频、音频输入,并称在部分开源评测中表现居前。

💹 OpenAI 与微软重写合作协议:取消模型独占与云排他,授权延续至 2032 年

OpenAI微软宣布调整长期合作框架:微软对模型与产品的 IP 许可由独占改为非独占,并延续至2032 年;微软仍是重要云伙伴,但 OpenAI 今后可在Azure之外,面向其他云平台提供产品与部署服务。多条信息还提到双方收入分成安排延续至2030 年,整体关系从更强绑定转向开放合作。

𝕏 GPT-5.5 登上 Arena 多榜前列,搜索榜第 2、专家榜第 5、视觉榜第 5

OpenAI GPT-5.5已上线Arena多项榜单,Search Arena 排名第 2Expert Arena 第 5、Vision Arena 第 5;其中图表相关的 Diagram 子项排名第 1,代码榜相较 GPT-5.4 还提升了50 分。综合来看,GPT-5.5 在搜索、视觉、专家任务和代码能力上都有同步增强。

𝕏 MOSS-Audio 开源统一音频理解模型,提供 4B/8B 与 Instruct/Thinking 版本

MOSS-Audio发布统一音频理解模型,提供4B/8B参数版本,并覆盖Instruct与 Thinking 两类配置。模型将语音识别、说话人分析、情感检测、环境声理解及音乐理解整合进同一体系,体现出面向多任务音频理解的一体化路线。

𝕏 腾讯混元开源 Hy3 预览版:295B A21B 推理与 Agent 模型

腾讯混元团队开源Hy3 preview参数规模为295B A21B,定位为面向推理与 agent 场景的模型。相关信息强调其高性价比属性,并表示将继续面向社区征集反馈,以完善后续正式版本。

𝕏 MiMo Orbit 推出 100T Token 开发者资助计划

Xiaomi MiMo发布MiMo Orbit生态计划,面向全球开发者提供总计100T tokens额度支持,申请期为4 月 27 日-5 月 27 日。信息显示,单个团队最高可获得 1 个月 Max Plan,意在推动 MiMo 模型生态、应用构建与开发者试用扩散。

𝕏 MiMo-V2.5 上线 SGLang Day-0 支持,覆盖 GPU 与 TPU/JAX

SGLang宣布MiMo-V2.5 系列提供首日支持,覆盖 GPU 以及 sglang-jax 生态。开发者可直接运行支持100 万上下文的代码智能体与多模态模型,这有助于新模型在推理框架中的快速接入与试用。

𝕏 DeepSeek V4 Base 即将获 vLLM 支持,新增 expert_dtype 适配 fp4/fp8

vLLM正与DeepSeek协作,为 DeepSeek V4 base 模型补充推理支持。更新重点是新增 expert_dtype 配置,用于区分 fp4 的 instruct 版本与 fp8 的 base 版本,这有助于不同模型变体在推理框架中的部署与兼容。

𝕏 OpenAI Realtime 1.5 支持用语音自然控制应用状态

OpenAI展示了 gpt-realtime-1.5 的语音交互应用示例,说明开发者可基于该模型构建实时语音应用,并用语音自然控制应用状态。该更新体现了 Realtime 系列在低延迟交互和语音驱动界面上的可用性提升。

𝕏 Opus 4.7 登顶 GSO 榜单,42.2%超过 GPT-5.5

Opus 4.7GSO 榜单排名第一,得分42.2%;同时信息称 Opus 4.6GPT-5.5 均为 37.3%。这一结果显示 Opus 4.7 在该特定评测上取得领先,并与 GPT-5.5 拉开一定差距。

𝕏 GLM-5.1 与 GLM-5-Turbo 三倍用量优惠延长至 6 月 30 日

Z.ai宣布GLM-5.1GLM-5-Turbo“三倍用量”优惠延长至6 月 30 日。适用时段覆盖一天中的大多数时间,信息指出仅 ET 2-6 AM 不可用,属于面向开发者使用成本与调用额度的阶段性促销安排。

𝕏 GPT-5.5 在 ALE-Bench 创下新 SOTA,GLM-5.1 接近 Codex 高配版

GPT-5.5-xhigh ALE-Bench 刷新 SOTA;同时,GLM-5.1 的表现接近 GPT-5.2-Codex-xhigh,而 DeepSeek-V4 Flash 也超过了 MiniMax 与 Qwen。该条信息更偏向评测快讯,反映多家模型在代码或代理类基准上的相对位置变化。

𝕏 GPT-5.5(xhigh)测试显示输出 Token 较前代减少约 40%

Artificial Analysis数据显示,GPT-5.5 (xhigh) 在其测试指数中,相比前代模型少用约40%输出 token。这意味着模型可能在保持能力的同时,提高了回答压缩度与推理输出效率,对成本与延迟控制具有实际意义。


EVENT-DRIVEN INTELLIGENCE

免费先跟踪重点,再决定是否升级

每篇公开内容都对应三步:订阅每日情报、查看同主题历史上下文、升级 Pro 解锁搜索、研究和事件详情。

分享

NEXT STEP · 留下邮箱

获取下一次重大事件提醒

每天一封精选情报,先用邮件建立复访,再决定是否升级到更深的追踪能力。