reddit_machinelearning_2026-04-25

Reddit ML - 2026-04-25

1. 将会有一种深度学习的科学理论 [R]

一篇14位作者合著的论文,提出深度学习理论正在形成,并总结了五个证据方向:可解玩具模型、极限洞察、简单经验法则、超参数理论和普适现象。

作者: /u/dot— | 发布于: 2026-04-24 17:58


2. 研究品味是一种没人谈论的技能。没有合作者,你如何培养它?[D]

研究品味的关键在于选择正确的问题,先尝试简单方案,避免过度工程化,并懂得适时缩小问题范围。

作者: /u/Odd-Donut-4388 | 发布于: 2026-04-24 14:10


3. [新优化器] 🌹 Rose:低显存、易使用、效果好,Apache 2.0 开源 [P]

新PyTorch优化器Rose,无状态低内存,收敛快泛化好,在MNIST和GPT训练中表现优于AdamW。

作者: /u/ECF630 | 发布于: 2026-04-24 11:05


4. CS会议一切都很随意,为什么还要收取高昂的注册费?[D]

用户质疑CS会议(如ICLR)收费高但质量低,出现空海报板、虚拟演讲敷衍等问题,缺乏严格标准。

作者: /u/casualcreak | 发布于: 2026-04-24 17:48


5. 数据科学/机器学习是否正逐渐演变为AI工程师? [讨论]

数据科学家角色正从模型开发转向AI工程,核心价值被忽视,行业更重视应用而非基础研究。

作者: /u/The-Silvervein | 发布于: 2026-04-24 11:55


6. ICML 2026 - 分数公布前一周,对所需平均分的最终预测?[D]

讨论ICML 2026录取的平均分数阈值预测,作者通知日为4月30日。

作者: /u/Fit_Scale_1464 | 发布于: 2026-04-24 07:29


7. DharmaOCR:开源专用小语言模型(3B)+ 与大型语言模型及其他开源模型的性价比基准测试 [R]

DharmaOCR 开源,基于3B/7B模型微调,性能超越GPT-5等,DPO降低87.6%失败率,AWQ量化降低22%成本。

作者: /u/augusto_camargo3 | 发布于: 2026-04-24 17:59


8. 我们开源了首个公开可用的血液检测模型:数据集、权重和命令行工具 [P] [R]

开源了首个血液检测模型BloodshotNet,含2.3万标注图像和YOLO26权重,用于内容审核,CPU上可达40+FPS。

作者: /u/PeterHash | 发布于: 2026-04-24 15:00


9. 从头训练:Nanochat vs Llama? [P]

用户询问在历史数据训练项目中,应选择Nanochat还是Llama架构,因Nanochat缺乏Transformers兼容性,而Llama更开放。

作者: /u/centerstate | 发布于: 2026-04-24 04:31


10. HPO - 超参数漂移 [D]

用户训练大型ML模型时,因全训练耗时一天,用缩短epoch的HPO和剪枝加速,但担心参数漂移,并询问剪枝是否惩罚慢收敛模型。

作者: /u/Counter-Business | 发布于: 2026-04-24 17:52


11. 减轻幻觉 [P]

一种轻量级减少LLM幻觉的方法,通过对比采样仅用10%数据训练,在事实性上优于DPO和SFT。

作者: /u/Round_Apple2573 | 发布于: 2026-04-24 13:46