Reddit ML - 2026-04-13
1. 新一代经验主义深度学习研究者,追逐潮流,随风而动
用户分享一张批评新一代深度学习研究者跟风、缺乏理论深度的图片,并表达对“后智能体AI”术语的困惑,希望引发讨论。
作者: /u/elnino2023 | 发布于: 2026-04-12 06:29
2. 加里·马库斯谈克劳德代码泄露事件
Gary Marcus认为Anthropic的Claude代码泄露显示其内核采用经典符号AI方法,但发帖者质疑这种复杂条件结构是否真属经典AI算法。
作者: /u/we_are_mammals | 发布于: 2026-04-12 10:34
3. 分析ICLR 2025与2026评分结果,令人惊叹 [D]
分析显示ICLR 2026审稿人间的评分一致性比2025年显著下降,表明顶级会议论文评审随机性可能加剧。
作者: /u/Striking-Warning9533 | 发布于: 2026-04-12 06:51
4. 大语言模型反向学习,缩放假说存在上限。
作者: /u/preyneyv | 发布于: 2026-04-12 07:51
5. 对ICML评审意见两极分化感到困惑 [D]
作者分享ICML论文评审经历:多数评审分数提升,但一位评审始终给出低分且态度强硬,询问此类情况对最终结果的影响。
作者: /u/Actual_Creme9905 | 发布于: 2026-04-12 17:16
6. 从零开始的分布式训练PyTorch教程库:数据并行、全分片数据并行、张量并行、混合并行与流水线并行 [项目]
这是一个用于教学的PyTorch仓库,从零开始实现分布式训练并行化,通过显式编写前向/后向逻辑来展示底层算法和通信模式。
作者: /u/shreyansh26 | 发布于: 2026-04-12 14:51
7. KIV:RTX 4070(12GB显存)实现100万token上下文窗口,无需重新训练,即插即用HuggingFace缓存替换——适用于所有使用DynamicCache的模型 [项目]
KIV是一种KV缓存中间件,通过分层检索系统,在12GB显存显卡上实现100万token上下文,解码速度几乎不受上下文长度影响。
作者: /u/ThyGreatOof | 发布于: 2026-04-12 17:23
8. ArcFace 嵌入向量量化至 16 位 pgvector HALFVEC 可行吗?[D]
讨论将ArcFace人脸嵌入从32位量化到16位的可行性,以解决PostgreSQL存储效率问题,并分析对实际识别精度的影响。
作者: /u/dangerousdotnet | 发布于: 2026-04-12 08:45
9. 用行为克隆+HG-DAgg训练AI玩《生化危机:安魂曲》[P]
使用行为克隆和HG-DAgger训练AI玩《生化危机:安魂曲》特定关卡,以模仿并改进人类演示,解决轨迹偏离和时序同步等挑战。
作者: /u/AgeOfEmpires4AOE4 | 发布于: 2026-04-12 14:32
10. 支持LLM/智能体基准测试的框架 [P]
作者认为当前大模型基准测试方法消耗资源过多且效率低,因此开发了名为bayesbench的Python包,旨在用贝叶斯方法减少评估所需数据量。
作者: /u/NarutoLLN | 发布于: 2026-04-12 19:08
11. Ijcai 2026 审稿意见回复疑问 [D]
用户询问IJCAI会议反驳阶段是否需要标注审稿人映射、编码ID以及是否需重复论文标题。
作者: /u/adi_gawd | 发布于: 2026-04-12 07:10
12. [讨论] 谷歌TurboQuant算法会削弱AI对存储芯片的需求吗?
谷歌TurboQuant技术宣称可将KV缓存压缩6倍且精度损失小。用户讨论该技术是否真实通用,以及能否大幅降低本地部署成本,实现大上下文窗口模型单机运行。
作者: /u/nikanorovalbert | 发布于: 2026-04-12 05:17