AINews - 2026-01-18
📰 十大AI新闻要点
1. OpenAI正式测试广告并推出低价订阅计划ChatGPT Go
OpenAI宣布将在美国对免费版和新推出的ChatGPT Go计划(8美元/月)测试广告,并公布了广告原则:广告不影响模型回答、清晰标注、用户对话对广告商保密。同时,ChatGPT Go计划提供10倍消息量、文件上传、图像生成、更长记忆和上下文,以及无限使用GPT-5.2 instant模型。
来源:https://twitter.com/OpenAI/status/2012223373489614951
来源:https://twitter.com/OpenAI/status/2012223323812270219
2. Sam Altman预告“极速Codex”即将到来
OpenAI CEO Sam Altman在X上多次预告“极速Codex即将到来!”,并提及ChatGPT记忆功能的新改进,引发了开发者社区对模型速度与智能权衡的广泛讨论。
来源:https://twitter.com/sama/status/2012243893744443706
来源:https://twitter.com/sama/status/2012242952542683227
3. 人机回环(Human-in-the-loop)被强调为提升AI系统可靠性的关键
社区讨论认为,在AI代理工作流中引入人类“监督员”可以显著提升系统感知可靠性。人类能够捕捉失败、处理模糊性,其价值在于填补完全自主系统与理想性能之间的差距。
来源:https://twitter.com/lateinteraction/status/2012030585926189148
4. 智谱AI与华为发布完全基于国产芯片训练的多模态SOTA模型GLM-Image
智谱AI与华为联合发布了GLM-Image模型,该模型完全在华为昇腾910芯片上训练,采用自回归与扩散解码器混合架构,支持1024至2048分辨率,在中文文本渲染方面表现出色。据称其计算能效比(tokens per joule)比NVIDIA H200高60%。
来源:文章内容(提及GitHub和Hugging Face仓库,但未提供直接链接)
5. 推理成为新瓶颈,“推理爆炸之年”框架引发讨论
一篇知乎长文总结指出,AI瓶颈已从训练转向推理。智能代理提高了I/O比率,预填充(Prefill)阶段成为主导,上下文缓存成为默认需求,而预填充与解码(Prefill/Decode)的分离对资源调度和内存层次结构提出了新挑战。
来源:https://twitter.com/ZhihuFrontier/status/2012080310981374428
6. 无需分词的实时语音克隆模型VoxCPM开源
OpenBMB开源了VoxCPM模型的权重,该模型能够进行实时流式语音克隆,直接生成连续语音,避免了离散音频分词带来的伪影。据称在单张RTX 4090上可实现约0.15的实时因子。
来源:https://twitter.com/LiorOnAI/status/2012133013967044755
7. FLUX.2 [klein]图像模型获广泛支持并登榜
Black Forest Labs的FLUX.2 [klein]模型获得vLLM-Omni的“第0天支持”,这是一个消费级友好(约13GB VRAM)、亚秒级推理、Apache-2.0许可的4B参数模型,并在多个图像生成排行榜上取得强劲名次。
来源:https://twitter.com/vllm_project/status/2012110024294965406
8. 多向量检索技术被强调为小模型性能提升的关键
社区出现强烈观点,认为多向量检索技术能让小参数模型(如3200万参数)在特定任务上媲美大模型(如80亿参数)的性能,并称“多向量是未来的唯一方向”。
来源:https://twitter.com/aaxsh18/status/2012124348392583584
来源:https://twitter.com/lateinteraction/status/2012227085507449197
9. AI数据中心总功耗估计达30GW,堪比纽约州峰值用电
Epoch AI研究估计,全球AI数据中心的电力容量已达到约30吉瓦(GW),与纽约州在炎热天气的峰值用电量相当。该估算基于芯片销量、额定功耗并乘以约2.5倍的基础设施开销。
来源:https://twitter.com/EpochAIResearch/status/2012303496465498490
10. 最新SWE-bench榜单发布,Claude Opus 4.5领先
2025年12月更新的SWE-bench基准测试评估了多个模型在48个新GitHub PR任务上的表现。Claude Opus 4.5以63.3%的解决率领先,GPT-5.2 xhigh以61.5%紧随其后。开源模型GLM-4.7表现突出,与GPT-5.1-codex等闭源模型相当。
来源:https://swe-rebench.com/?insight=dec_2025
🛠️ 十大工具产品要点
1. OpenAI ChatGPT Go订阅计划
新推出的低价订阅计划,定价8美元/月,提供比免费版多10倍的消息量、文件上传、图像生成、增强记忆和更长上下文,并包含对GPT-5.2 instant模型的无限使用。
来源:https://twitter.com/OpenAI/status/2012223323812270219
2. Codex CLI生态系统集成增强
用户现在可以通过Ollama使用
codex --oss命令调用开源模型。同时,实验性功能允许用户“在不中断的情况下中途引导Codex”,并建议将上下文长度设置为≥32K以获得更好体验。
来源:https://twitter.com/ollama/status/2012046176267440177
来源:https://twitter.com/thsottiaux/status/2012074358471319599
3. 代理编排与UI工具涌现
多个工具发布显示“代理编排”层正在快速发展。例如,SpecStory开源了CLI来规范化代理会话来源/合约;开源UI“sled”可通过Agent Control Protocol将Claude Code或Codex从电脑“传送”到手机;OpenWork为Mac添加了原生Ollama集成以运行完全本地的计算机代理。
来源:https://twitter.com/doesdatmaksense/status/2012209297380544940
来源:https://twitter.com/dctanner/status/2012212217677070796
来源:https://twitter.com/_orcaman/status/2012210613712281646
4. Claude Flow v3发布,号称可提升Claude Max使用效率2.5倍
Claude Flow v3是一个用TypeScript和WASM重写的AI编排平台,采用模块化架构,支持部署具有共享内存和持续学习能力的多智能体集群。据称可减少75-80%的token消耗,并将订阅容量提升250%。
来源:https://github.com/ruvnet/claude-flow
5. Google发布Translate Gemma多语言翻译模型
Google发布了Translate Gemma模型,专注于多语言翻译(包括马拉雅拉姆语等),并已在Hugging Face上提供。该模型在Ollama中可用,需要特定的提示格式。
来源:https://huggingface.co/collections/google/translategemma
来源:https://twitter.com/ollama/status/2012307436284395692
6. Unsloth实现7倍更长上下文的强化学习训练
Unsloth宣布新技术可将强化学习训练的上下文长度延长最多7倍(某些情况下达12倍)。例如,可在24GB显存的显卡上训练具有20K上下文的gpt-oss 20b QLoRA模型,且不损失精度。
来源:文章内容(来自Reddit帖子,无直接外部链接)
7. 小型AI计算机TiinyAI可本地运行120B参数模型
TiinyAI开发了一款紧凑型AI设备,配备80GB RAM,功耗30W,能够本地运行1200亿参数模型。该设备主打便携性和隐私性,是DGX Spark等大型系统在特定场景下的替代方案。
来源:文章内容(来自Reddit帖子,无直接外部链接)
8. Cursor、Qoder等AI编码工具因高昂使用成本引发社区讨论
用户报告使用Cursor Ultra计划和Qoder等AI编码工具导致费用激增,例如在5分钟内花费2美元,或每月花费高达400美元。社区开始寻找如Claude Code等更经济的替代方案,并呼吁更透明的使用量计费和配额管理。
来源:文章内容(来自Discord讨论,无直接外部链接)
9. Kling AI推出运动控制与“AI动捕”工作流
Kling AI展示了其运动控制功能,支持快速角色替换和可转移的动作/表演,实现了类似“AI动作捕捉”的效果,用户可以将动作、表情、嘴唇同步从一个视频复制粘贴到另一个。
来源:https://twitter.com/Kling_ai/status/2012155500134105149
来源:https://twitter.com/EHuanglu/status/2012149076511617436
10. Hawk Ultra模型号称单提示可生成超2万行代码
MovementLabs.AI发布的Hawk Ultra模型引发关注,据称其单次提示可生成9500多行(甚至超过20000行)代码,被社区视为潜在的“Opus杀手”和“代码洪流”类模型。
来源:https://x.com/movementlabsAI/status/2011964766533632380