• 北大核心期刊(《中文核心期刊要目总览》2017版)
  • 中国科技核心期刊(中国科技论文统计源期刊)
  • JST 日本科学技术振兴机构数据库(日)收录期刊

留言板

尊敬的读者、作者、审稿人, 关于本刊的投稿、审稿、编辑和出版的任何问题, 您可以本页添加留言。我们将尽快给您答复。谢谢您的支持!

姓名
邮箱
手机号码
标题
留言内容
验证码

基于卷积注意力机制和多损失联合的跨模态行人重识别

周传华 周东东 夏徐东 周子涵

周传华, 周东东, 夏徐东, 周子涵. 基于卷积注意力机制和多损失联合的跨模态行人重识别[J]. 微电子学与计算机. doi: 10.19304/J.ISSN1000-7180.2022.0002
引用本文: 周传华, 周东东, 夏徐东, 周子涵. 基于卷积注意力机制和多损失联合的跨模态行人重识别[J]. 微电子学与计算机. doi: 10.19304/J.ISSN1000-7180.2022.0002
Cross- modality Person re-identification based on convolutional attention mechanism and multi-loss combination[J]. Microelectronics & Computer. doi: 10.19304/J.ISSN1000-7180.2022.0002
Citation: Cross- modality Person re-identification based on convolutional attention mechanism and multi-loss combination[J]. Microelectronics & Computer. doi: 10.19304/J.ISSN1000-7180.2022.0002

基于卷积注意力机制和多损失联合的跨模态行人重识别

doi: 10.19304/J.ISSN1000-7180.2022.0002

Cross- modality Person re-identification based on convolutional attention mechanism and multi-loss combination

  • 摘要: 跨模态行人重识别问题难点在于同时存在模态间的巨大差异和模态内的类内变化,为此本文提出了基于卷积注意力机制和多损失联合的跨模态行人重识别方法。首先在两支路中使用Resnet50网络前三层卷积层分别提取行人图片的浅层特征,然后嵌入卷积注意力机制模块以抑制颜色等无关信息的提取,并融合中层特征和支路骨干网络获取的最终特征提升获取特征的辨别力,最后采用双向跨模态三元组损失损失和身份损失联合约束双流网络,加快网络模型收敛,有效应对模态间的差异以及类内变化。实验结果表明本文提出的方法使跨模态行人重识别问题的精度得到了有效的提升。

     

  • 加载中
计量
  • 文章访问数:  186
  • HTML全文浏览量:  17
  • PDF下载量:  106
  • 被引次数: 0
出版历程
  • 收稿日期:  2022-01-03
  • 录用日期:  2022-01-24
  • 修回日期:  2022-01-22
  • 网络出版日期:  2022-02-10

目录

    /

    返回文章
    返回