标签:表征对齐

谢赛宁REPA得到大幅改进,只需不到4行代码

反直觉的发现颠覆了传统认知:驱动生成模型性能的关键因素并非预训练视觉编码器的全局语义信息(如ImageNet分类准确率),而是其提取的空间结构特征。一项由A...

扩散模型训练方法一直错了!谢赛宁:Representation matters

纽约大学的研究者谢赛宁及其团队提出了一种名为REPresentation Alignment(REPA)的表征对齐技术,旨在简化训练扩散Transformer的过程。该技术通过将预训练自...