标签:机器学习

扩散语言模型新发现:其计算潜力正在被浪费?

掩码扩散语言模型(MDLM)作为一种新兴的生成范式,挑战了传统自回归模型从左到右的token生成方式。这种模型通过训练时随机遮蔽序列位置并学习填充,具备多to...

Thinking Machines曝LoRA终极指南:10倍学习率,媲美全参微调

LoRA(低秩适配)作为一种参数高效微调方法,在特定条件下能够与全参数微调(FullFT)达到相近性能。 Thinking Machines的最新研究通过监督微调和强化学习实...

重磅官宣!Transformer发明者、GPT-5主创领衔,50+顶尖专家揭秘AGI时间表

2025全球机器学习技术大会将于10月16 - 17日在北京威斯汀酒店召开,此次大会是在计算与连接发展呈周期性趋势,当下“计算2.0”进入加速交替阶段,AGI有望在2035...

微软开源2025 ICML获奖框架,终结大模型多轮对话严重缺陷

微软在2025年国际机器学习会议上发布了获奖论文CoLLabLLM,并开源了该创新框架。CoLLabLLM旨在解决大模型在多轮交互中的缺陷,通过多轮对话模拟和多轮感知奖...

Sebastian Raschka著作免费开放!《机器学习与AI核心30问》,新手专家皆宜

知名AI技术博主Sebastian Raschka宣布,其著作《机器学习 Q 与 AI:30 个必备问答》的全部30章内容免费开放,以帮助正在准备夏季实习和技术面试的读者。这本...

Cache Me If You Can:陈丹琦团队如何「抓住」关键缓存,解放LLM内存?

普林斯顿大学陈丹琦团队提出统一框架解决长上下文语言模型中的KV缓存内存瓶颈问题。随着'长思维链'等技术的兴起,模型需要处理数万token的输入,导致基于Tran...

NYU教授公布2025机器学习课程大纲:所有人都在追LLM,高校为何死磕基础理论?

Meta公司首席AI科学家LeCun转发了其同事Kyunghyun Cho关于2025学年机器学习研究生课程的教学大纲和讲义。该课程以随机梯度下降(SGD)为核心,避开大型语言模...

NYU教授开炮:美国大学ML课太离谱!学生炮轰课程垃圾,全靠自学

近年来,大学机器学习课程的教学内容引发了广泛讨论。纽约大学(NYU)教授Kyunghyun Cho指出,许多课程已经抛弃了机器学习(ML)和深度学习的基础概念,这种...

ICML 2025放榜!接收率26.9%,高分被拒,低分录用惹争议

第42届国际机器学习大会(ICML)将于2025年7月13日至19日在加拿大温哥华举行。今年大会共收到12107篇投稿,较去年增加了28%,其中3260篇论文被接收,接收率为...

又一开源AI神器!将机器学习论文自动转为可运行代码库

PaperCoder是一个多智能体大语言模型(LLM)系统,旨在自动生成机器学习论文中的代码。这一工具的推出源于对2024年NeurIPS、ICML和ICLR等顶级会议论文的统计...
1 2 3 5