文章摘要
【关 键 词】 深度哈希、图像检索、语义中心、动态更新、端到端
基于哈希中心的深度哈希方法已成为大规模图像检索的主流技术,但传统方法存在哈希中心初始化随机化、忽略类间语义关系的问题。两阶段方法SHC通过分离的中心生成阶段注入语义,却面临计算复杂度高和阶段间偏差的缺陷。北京邮电大学等机构提出的中心重分配哈希(CRH)框架解决了这一核心矛盾,通过端到端联合学习实现哈希函数与语义中心的动态优化。
CRH框架包含三个核心组件:哈希码本初始化、哈希函数优化和哈希中心重分配。哈希码本均匀采样生成候选中心,确保初始汉明距离分布合理。哈希函数采用深度神经网络结合边际交叉熵损失和量化损失,推动样本向对应中心聚集。最具创新性的动态重分配机制周期性更新中心分配,通过计算类别样本与码本中心的平均距离构建成本矩阵,采用贪心或匈牙利算法优化分配方案。多头码本设计将中心向量分割为多个子头,在不增加存储开销的情况下将码本容量扩展H倍,实现更精细的语义表达。
在Stanford Cars、NABirds和MS COCO数据集上的实验表明,CRH在16/32/64位码长下均超越现有方法,最高相对提升达6.6%。消融实验证实中心重分配机制带来1.76%-3.08%的mAP提升,而多头设计进一步强化细粒度语义建模。通过计算哈希中心相似度与CLIP视觉表征相似度的Pearson相关系数,发现CRH学到的中心语义对齐度显著优于基线方法,且mAP与语义相关系数呈现明显正相关。参数敏感性分析显示,码本大小为类别数2倍、头维度取满足d≥log₂M的最小2幂次时性能最优。
该方法突破了传统两阶段训练的局限性,首次实现哈希中心与哈希函数的端到端联合优化。其动态更新机制确保中心始终保持二值特性和语义一致性,多头架构则有效扩展了语义表示空间。开源代码和可复现结果为哈希学习领域提供了新范式,未来可延伸至多模态检索等更复杂场景。这项工作重新定义了哈希中心在检索系统中的作用,证明动态语义优化比静态预设能更有效地捕获数据本质结构。
原文和模型
【原文链接】 阅读原文 [ 2645字 | 11分钟 ]
【原文作者】 AI前线
【摘要模型】 deepseek/deepseek-v3-0324
【摘要评分】 ★★★★☆




