生成式AI
一、Google发布Gemma 4系列开源模型,小版本可在手机离线运行
1. Gemma 4发布四款模型并采用Apache 2.0全面开源,最小的E2B仅激活2B参数即可在手机和树莓派上完全离线运行,支持128K上下文和多模态输入;
2. 31B Dense版在AIME 2026数学推理上从20.8%跃升至89.2%,代码能力从29.1%升至80.0%,Agent工具调用从6.6%提升至86.4%;
3. E2B的2B参数手机模型在GPQA Diamond上达到43.4%,已追平上一代Gemma 3 27B桌面模型的42.4%,实现单位参数智能密度的突破。
https://www.aiexpress.news/58460.html
二、微软发布三款自研AI模型,覆盖语音转写、语音生成和图像生成
1. 微软发布MAI-Transcribe-1、MAI-Voice-1和MAI-Image-2三款自研模型,批量转录速度是现有Azure Fast的2.5倍,语音生成1秒可产出60秒音频;
2. MAI-Image-2在Arena.ai文本转图像排行榜位列第三,已集成至Copilot、Bing和PowerPoint等产品,WPP成为首批企业合作伙伴;
3. 三款模型均由Mustafa Suleyman领导的AI超级智能团队自主研发,标志微软正自建多模态AI技术体系以降低对OpenAI的依赖。
https://www.aiexpress.news/58470.html
三、Anthropic宣布Claude订阅不再涵盖OpenClaw等第三方工具
1. Anthropic发邮件宣布Claude Pro和Max订阅不再涵盖OpenClaw等第三方工具,用户需切换至额外用量套餐或API密钥付费使用;
2. 重度用户月付200美元却消耗价值数千美元算力,第三方工具context管理低效导致API调用次数远超Claude Code自身框架;
3. OpenClaw开发者批评此举为"先抄后锁",Claude Code负责人回应称出于工程层面限制考量,第三方工具通过API仍可正常使用。
https://www.aiexpress.news/58481.html
四、OpenAI新一代GPT-Image-2泄露,文字渲染和真实感大幅提升
1. GPT-Image-2以多个代号在Chatbot Arena测试并已向部分ChatGPT用户开放,文字渲染能力和世界知识理解表现突出,整体水平可能超越谷歌Nano Banana Pro;
2. 图像编辑偏离原图问题显著改善,解决了前代GPT-Image-1.5的黄色滤镜问题,支持低分辨率图片高清提升和背景纹理去除;
3. 社区实测反馈积极,真实感和文字生成能力被评价为当前最强水平,距上代发布仅4个月即迎来重大迭代。
https://www.aiexpress.news/58491.html
五、Cursor 3正式发布更新,以多Agent并行协作为核心重构编辑器
1. Cursor 3将整个编辑器围绕Agent重新构建,支持在云端、本地、远程服务器等不同环境并行运行多个Agent,并在统一工作区管理;
2. 新增设计模式可在内置浏览器中框选UI元素直接修改,/best-of-n命令支持同一任务多模型同时执行并选择最优结果;
3. 内置编程模型Composer 2在Terminal-Bench 2.0上超越Claude Opus 4.6且价格降低80%,支持30多个MCP插件和企业私有插件市场。
https://www.aiexpress.news/58508.html
六、Meta-Harness让Haiku性能登顶,可通过框架优化追平大模型
1. 斯坦福联合MIT发布Meta-Harness,让AI自动优化模型运行框架,Claude Haiku 4.5成功率达37.6%登顶同级所有Agent,Opus 4.6达76.4%位列第二;
2. 核心创新在于保留完整执行轨迹而非压缩摘要,上下文观察量达1000万token,是主流方法的400倍,信息保留带来15个百分点性能提升;
3. 在文本分类任务中仅需4次评估迭代即匹配竞品40次的效果,数学推理中发现的检索策略可零样本迁移至5个未见模型均有提升。
https://www.aiexpress.news/58518.html
七、Karpathy公开用LLM构建个人本地知识库的完整方法与提示词
1. Karpathy提出用LLM持续构建并维护结构化Markdown Wiki,替代传统RAG每次从零检索的模式,知识只需编译一次并持续更新形成复利效应;
2. 系统分为三层架构:原始资料层(只读)、Wiki层(LLM负责写作维护)和Schema层(配置LLM行为的规范文档),支持录入、查询和检查三种核心操作;
3. 该方法适用于深度研究、读书笔记、企业内部Wiki等场景,核心优势在于LLM承担交叉引用和一致性维护等繁琐工作,人类专注于筛选资料和提出问题。
https://www.aiexpress.news/58530.html
报告观点
八、小米罗福莉:Claude封杀龙虾背后,出路不是更便宜的token
1. 罗福莉指出OpenClaw的context管理极度浪费,单用户请求触发的API调用次数是Claude Code的数倍,真实成本达订阅价格的数十倍;
2. 短期阵痛将倒逼第三方框架改进context管理和prompt缓存命中率,劝大模型厂商在未想清楚定价模式前不要盲目价格战;
3. 真正出路是协同进化——更省token的Agent框架与更高效的模型,AI服务单位成本由模型、框架和context管理三者叠加决定。
https://www.aiexpress.news/58534.html
九、Sam Altman:关停Sora因算力取舍,五角大楼协议时机系"误判"
1. Altman透露关停Sora根本原因是资源分配,需将算力集中到自动化研究者和超级App方向,Sora日烧百万且迫使公司进入不愿参与的注意力经济竞争;
2. 承认五角大楼协议推出时机是"误判",对社会不信任情绪强度估计不足,但坚持AI公司不能拒绝向政府提供关键技术,合同设有三条红线;
3. Altman声称首家由单个创始人借助AI打造的十亿美元公司已经诞生,并预测2028年下半年数据中心内认知能力总量将超过外部。
https://www.aiexpress.news/58546.html
十、红杉专访StarCloud创始人:太空数据中心将成为算力终极形态
1. StarCloud已实现首颗GPU卫星在轨运行,太空一平方米太阳能板产能是地球的8倍,当发射成本降至500美元/公斤时太空建设将比地面更便宜;
2. 70%工程精力投入散热问题,太空真空环境只能依靠热辐射散热,GPU负载具备天然容错性,在轨芯片未出现任何重启或故障;
3. 预计2028年中后期开启商业试点,10年内每年将有近万亿美元资本投入太空算力部署,综合能源成本将低于美国地面电价的一半。
https://www.aiexpress.news/58551.html
<原文链接:https://mp.weixin.qq.com/s/qPGaxJ7J951YplF-UH97BA















暂无评论内容