Reddit ML - 2026-04-25
1. 将会有一种深度学习的科学理论 [R]
一篇14位作者合著的论文,提出深度学习理论正在形成,并总结了五个证据方向:可解玩具模型、极限洞察、简单经验法则、超参数理论和普适现象。
作者: /u/dot— | 发布于: 2026-04-24 17:58
2. 研究品味是一种没人谈论的技能。没有合作者,你如何培养它?[D]
研究品味的关键在于选择正确的问题,先尝试简单方案,避免过度工程化,并懂得适时缩小问题范围。
作者: /u/Odd-Donut-4388 | 发布于: 2026-04-24 14:10
3. [新优化器] 🌹 Rose:低显存、易使用、效果好,Apache 2.0 开源 [P]
新PyTorch优化器Rose,无状态低内存,收敛快泛化好,在MNIST和GPT训练中表现优于AdamW。
作者: /u/ECF630 | 发布于: 2026-04-24 11:05
4. CS会议一切都很随意,为什么还要收取高昂的注册费?[D]
用户质疑CS会议(如ICLR)收费高但质量低,出现空海报板、虚拟演讲敷衍等问题,缺乏严格标准。
作者: /u/casualcreak | 发布于: 2026-04-24 17:48
5. 数据科学/机器学习是否正逐渐演变为AI工程师? [讨论]
数据科学家角色正从模型开发转向AI工程,核心价值被忽视,行业更重视应用而非基础研究。
作者: /u/The-Silvervein | 发布于: 2026-04-24 11:55
6. ICML 2026 - 分数公布前一周,对所需平均分的最终预测?[D]
讨论ICML 2026录取的平均分数阈值预测,作者通知日为4月30日。
作者: /u/Fit_Scale_1464 | 发布于: 2026-04-24 07:29
7. DharmaOCR:开源专用小语言模型(3B)+ 与大型语言模型及其他开源模型的性价比基准测试 [R]
DharmaOCR 开源,基于3B/7B模型微调,性能超越GPT-5等,DPO降低87.6%失败率,AWQ量化降低22%成本。
作者: /u/augusto_camargo3 | 发布于: 2026-04-24 17:59
8. 我们开源了首个公开可用的血液检测模型:数据集、权重和命令行工具 [P] [R]
开源了首个血液检测模型BloodshotNet,含2.3万标注图像和YOLO26权重,用于内容审核,CPU上可达40+FPS。
作者: /u/PeterHash | 发布于: 2026-04-24 15:00
9. 从头训练:Nanochat vs Llama? [P]
用户询问在历史数据训练项目中,应选择Nanochat还是Llama架构,因Nanochat缺乏Transformers兼容性,而Llama更开放。
作者: /u/centerstate | 发布于: 2026-04-24 04:31
10. HPO - 超参数漂移 [D]
用户训练大型ML模型时,因全训练耗时一天,用缩短epoch的HPO和剪枝加速,但担心参数漂移,并询问剪枝是否惩罚慢收敛模型。
作者: /u/Counter-Business | 发布于: 2026-04-24 17:52
11. 减轻幻觉 [P]
一种轻量级减少LLM幻觉的方法,通过对比采样仅用10%数据训练,在事实性上优于DPO和SFT。
作者: /u/Round_Apple2573 | 发布于: 2026-04-24 13:46