当前位置:网站首页>论文阅读【Open-book Video Captioning with Retrieve-Copy-Generate Network】

论文阅读【Open-book Video Captioning with Retrieve-Copy-Generate Network】

2022-07-06 23:36:00 hei_hei_hei_

Open-book Video Captioning with Retrieve-Copy-Generate Network

概要

  • 发表:CVPR 2021
  • idea:作者认为之前的方法由于生成caption的时候缺乏一定的指导,因此生成的caption比较单调,并且由于训练数据集是固定的,所以模型训练后学到的知识是不可扩展的。作者想到通过video-to-text检索任务,从语料库中检索句子作为caption的指导。类似开卷考试(open-domain mechanism)

详细设计

在这里插入图片描述

1. Effective Video-to-Text Retriever

  • 将语料库中所有sentences通过一个textual encoder映射到d维,videos通过visual encoder映射到d维,求相似度作为选择标准标准
    在这里插入图片描述

  • Textual Encoder:bi-LSTM
    在这里插入图片描述
    ps: L L L表示句子长度, W s W_s Ws是可学习的embedding矩阵, η s \eta _s ηs为LSTM的参数
    在这里插入图片描述
    将长度L的sentence聚合成一个d维的vector:在这里插入图片描述
    v s v_s vs是聚合参数

  • Visual Encoder:appearance features && motion features
    在这里插入图片描述
    在这里插入图片描述
    v a , v m v_a,v_m va,vm是聚合参数

  • video-to-text similarity:在这里插入图片描述
    最终得到k个检索出来指导的句子

2. Copy-mechanism Caption Generator

通过Hierarchical Caption Decoder来生成caption,只是在每一个step通过Dynamic Multi-pointers Module决定是否要copy指导的word

2.1 Hierarchical Caption Decoder

由一个attention-LSTM和一个language-LSTM组成。attention-LSTM用于注意visual features用于聚合当前的状态和视觉上下文以生成词汇库的概率分布 p v o c p_{voc} pvoc

  • attention-LSTM
    在这里插入图片描述
    x = [ x m ; x a ] x = [x^m;x^a] x=[xm;xa] y t − 1 y_{t-1} yt1表示上一step生成的单词
  • language-LSTM
    在这里插入图片描述
    W b o c , b b o c W_{boc},b_{boc} Wboc,bboc都是可学习参数
2.2 Dynamic Multi-pointers Module

前提:已经得到K个候选sentences在这里插入图片描述每个sentence有L个单词在这里插入图片描述

  • 对每个句子分别处理。将decoder中的hidden state h t l h^l_t htl作为Q对句子中L个单词做attention,得到L个单词的注意力概率分布
    在这里插入图片描述
    p r e t , i p_{ret,i} pret,i表示第i个句子中各个单词的注意力分布权重; c i , t r c_{i,t}^r ci,tr表示加权后的结果。

  • 决定是否copy选择的单词
    在这里插入图片描述

  • 得到最终所有词汇的概率分布( p r e t p_{ret} pret被扩展, p c o p y p_{copy} pcopy被广播)
    在这里插入图片描述

3. Training

  • 策略1:为了可扩展语料库,可以固定retriever,fine-tuning generator。
  • 策略2:也可以二者一起训练,但是如果直接更新retriever会导致generator从一开始就训练得很差,所以对Loss中添加了限制
    在这里插入图片描述

实验结果

  • 消融实验
    different K
    在这里插入图片描述
    different corpus size
    在这里插入图片描述
  • Comparison Performance
    在这里插入图片描述
    结果其实一般,都没有超过20年的一些实验
原网站

版权声明
本文为[hei_hei_hei_]所创,转载请带上原文链接,感谢
https://blog.csdn.net/hei_hei_hei_/article/details/125640148