天眼日报
🤖 AI 大模型
GitHub Copilot 将于 4 月 24 日起默认使用用户交互数据训练 AI,企业版不受影响
GitHub 更新 Copilot 数据使用规则:自 4 月 24 日起,Copilot Free、Pro 和 Pro+ 用户与产品交互产生的数据将默认用于模型训练,范围包括输入、输出、代码片段及相关上下文。企业版不在此次调整范围内。用户若不希望数据被用于训练,需要在设置中手动选择退出。该变更本质上是针对 Copilot 产品的数据政策更新,而非所有 GitHub 仓库代码统一默认开放给训练,因此应与“GitHub 全站隐私政策”类传闻区分看待。
LandingAI:主流大模型在文档处理中的视觉定位能力仍不足,难以提供可审计的位置证据
LandingAI 测试了 GPT-5.4、Gemini、Opus 等主流大模型在文档理解场景下的表现,指出它们虽然能抽取字段和理解内容,但往往无法稳定返回数值对应的 bounding box、页码等精确位置信息,因此难以满足金融、法律、合规等对可追溯证据要求较高的场景。为解决这一问题,LandingAI 提出 Agentic Document Extraction 路线,让每条抽取结果都携带精确坐标与位置依据,强调“读懂文档”与“证明答案来自哪里”是两种不同能力。
OpenAI 发布 GPT-5.4 mini 与 nano:支持 400K 上下文和图像输入,轻量模型基准成绩领先同级产品
OpenAI 推出 GPT-5.4 mini 与 nano 两款轻量模型,均支持最长 400K token 上下文和图像输入。公开信息显示,GPT-5.4 mini 在 xhigh 档测试中达到 48 分,nano 为 44 分,明显领先 Claude Haiku 4.5 的 37 分以及 Gemini 3.1 Flash-Lite 的 34 分。nano 定价为每百万 token 输入 0.20 美元、输出 1.25 美元,并在 τ²-Bench 和 IFBench 上分别达到 81% 与 76%。整体来看,OpenAI 正试图用更长上下文、更低成本和更强多模态能力,强化轻量级模型在开发者与代理场景中的竞争力。
美团开源 LongCat-Next 多模态模型:统一文本、视觉与音频 token 空间,采用 MIT 许可
美团发布并开源 LongCat-Next,多模态架构统一处理文本、图像和音频信息,通过共享离散 token 空间实现跨模态建模。其视觉 tokenizer 采用 dNaViT,支持动态分辨率输入;模型为 A3B 活跃参数规模,在视觉理解、图像生成压缩率以及语音克隆等方向展示出较强能力,其中图像生成可实现约 28 倍压缩。项目采用 MIT 许可,意味着开发者和企业可以较低门槛进行研究和商业探索。该模型体现出国内团队在多模态统一表示与高效推理上的持续推进。
X 计划下周将 Grok 接入推荐系统,称其为平台最重要的改版之一
X 产品负责人 Nikita Bier 表示,平台将在下周把 Grok 全面接入推荐系统,用 AI 实时分析帖子内容的质量与相关性,以优化时间线排序和内容分发。官方说法认为,这将帮助小账号获得更多曝光,并提升信息流的个性化程度。若按计划落地,Grok 的角色将从聊天助手进一步扩展到平台核心分发基础设施,意味着 AI 不再只是前台产品功能,而是直接参与内容审核、排序和触达逻辑。此举也可能影响创作者生态、流量分配方式以及平台信息可见性。
Moonshot AI 据称考虑赴港 IPO,估值约 180 亿美元,并同步筹划 10 亿美元融资
据报道,Moonshot AI 正与中金公司和高盛初步讨论在香港进行首次公开募股(IPO)的可能性,公司估值约为 180 亿美元。同时,其也在推进约 10 亿美元的新一轮融资。Moonshot AI 是 Kimi 聊天机器人背后的公司,现有投资方包括阿里巴巴、腾讯和 5Y Capital。若消息属实,这将是中国大模型创业公司资本化进程中的重要事件,显示市场对头部 AI 应用及基础模型公司的估值预期仍然较高,也反映香港市场或正成为中国 AI 公司重要的融资与上市通道。
TypeNo 更新至 v1.3.0:支持长录音实时计时、8 组热键与菜单栏一键更新
本地语音转写工具 TypeNo 发布 v1.3.0,新增多项易用性升级,包括支持 2 分钟以上长录音的实时计时、最多 8 个热键组合(Control、Option、Command、Shift)、Esc 取消转录,以及菜单栏一键更新功能。新版本还提供 Universal Binary,对 Intel Mac 支持更完善。该产品主打“全程本地运行、无云端、无账号、免费开源”,在隐私敏感和离线办公场景中具有较强吸引力。此次更新重点不是模型能力突破,而是围绕桌面工作流和用户体验做打磨。
OpenClaw 新增 10 个 Skills,涵盖浏览器调试、本地搜索、Agent 基准测试等能力
GoSailGlobal 汇总了 OpenClaw 当日新增的 10 个 Skills,覆盖浏览器级 DevTools、本地文件搜索、工具调用检查、搜索与审计、Agent 基准测试等多个方向。其中包括 matt1398/claude-devtools、dtsola/xiaoyaosearch、sierra-research/tau2-bench 等项目。这类 Skills 扩展本质上是在增强代理式工作流的可调用工具箱,使模型可以更方便地连接真实环境、执行调试、检索信息和完成评测任务。相较于单一模型更新,这类生态层面的能力补充更能体现 AI 工具链正在快速模块化和插件化。
GitHub“默认仓库用于 AI 训练”的说法流传,但与 Copilot 数据政策并非同一事件
有消息称 GitHub 更新隐私政策,未来所有默认仓库代码都将被用于 AI 训练,开发者需手动退出,并提到 2026 年 3 月 26 日生效。但从已知信息看,这一说法与“Copilot 自 4 月 24 日起默认使用部分用户交互数据训练”的产品级政策并非同一件事,二者影响范围、对象和生效时间都明显不同。由于该条信息缺乏更权威来源支撑,且容易与 Copilot 政策混淆,因此应单独保留并谨慎看待,不宜直接与 Copilot 训练数据更新合并。
谷歌 TurboQuant 可将 KV Cache 无损压缩至 3-bit,在 H100 上实现最高 8 倍注意力提速
Google 提出 TurboQuant,用于将大模型推理过程中的 KV Cache 从传统 16-bit 无损压缩到 3-bit,将数据量降至约原来的 1/4 到 1/5,从而显著缓解显存带宽瓶颈。在 H100 上,该方法可带来最高 8 倍的注意力计算加速;结合线性注意力或滑动窗口等技术,整体推理速度还有进一步翻倍空间。报道还提到,该方法在 LongBench、“大海捞针”等长上下文测试中保持高精度,并已在 Gemma、Mistral 等开源模型上验证效果。TurboQuant 直指长上下文推理中最关键的内存瓶颈,是模型系统优化领域的重要进展。
中国平安披露 AI 应用规模:超 23 万员工使用智能体平台,已开发 7 万个智能体应用
中国平安披露其企业级 AI 落地情况:公司已沉淀约 33 万亿字节数据,超过 23 万名员工使用内部智能体平台,累计开发约 7 万个智能体应用,全年模型调用量达到 36.5 亿次。业务层面,寿险闪赔占比达到 59%,产险反欺诈累计减损 105.1 亿元。该案例显示,大模型与智能体平台在大型金融集团内部已进入规模化应用阶段,价值不只体现在问答或办公辅助,还深入理赔、风控、反欺诈等高价值核心流程。
36 氪:Cursor Composer 2 采用 Kimi K2.5 作为底座,反映中国开源模型正进入全球 AI 供应链
36 氪报道称,Cursor 在 Composer 2 中采用 Moonshot 的 Kimi K2.5 作为底座模型,并通过 Fireworks AI 提供授权与推理服务,推理成本据称降低 77%。文章进一步将这一案例与 DeepSeek V3、OpenRouter 等放在同一背景下,认为中国开源模型正在成为全球 AI 基础设施的一部分:一方面具备更低训练或部署成本,另一方面在海外平台上的调用量和接受度持续上升。该报道重点不在单一产品发布,而在于揭示中国模型厂商、推理平台与海外应用之间形成的新型供应链关系。
EVENT-DRIVEN INTELLIGENCE
免费先跟踪重点,再决定是否升级
每篇公开内容都对应三步:订阅每日情报、查看同主题历史上下文、升级 Pro 解锁搜索、研究和事件详情。