循环神经网络(RNN)常用于序列数据的处理,可建模视频连续多帧的时序信息,在视频分类领域为基础常用方法。该模型采用了双向长短时记忆网络(LSTM),将视频的所有帧特征依次编码。与传统方法直接采用LSTM最后一个时刻的输出不同,该模型增加了一个Attention层,每个时刻的隐状态输出都有一个自适应权重,然后线性加权得到最终特征向量。参考论文中实现的是两层LSTM结构,而本代码实现的是带Attention的双向LSTM,Attention层可参考论文AttentionCluster。
详细内容请参考Beyond Short Snippets: Deep Networks for Video Classification。
AttentionLSTM模型使用2nd-Youtube-8M数据集,关于数据部分请参考数据说明
数据准备完毕后,可以通过如下两种方式启动训练:
export CUDA_VISIBLE_DEVICES=0,1,2,3,4,5,6,7
python train.py --model_name=AttentionLSTM \
--config=./configs/attention_lstm.yaml \
--log_interval=10 \
--valid_interval=1 \
--use_gpu=True \
--save_dir=./data/checkpoints \
--fix_random_seed=False
bash run.sh train AttentionLSTM ./configs/attention_lstm.yaml
- AttentionLSTM模型使用8卡Nvidia Tesla P40来训练的,总的batch size数是1024。
请先将提供的model下载到本地,并在上述脚本文件中添加--resume
为所保存的预训练模型存放路径。
可通过如下两种方式进行模型评估:
python eval.py --model_name=AttentionLSTM \
--config=./configs/attention_lstm.yaml \
--log_interval=1 \
--weights=$PATH_TO_WEIGHTS \
--use_gpu=True
bash run.sh eval AttentionLSTM ./configs/attention_lstm.yaml
-
使用
run.sh
进行评估时,需要修改脚本中的weights
参数指定需要评估的权重。 -
若未指定
weights
参数,脚本会下载已发布模型model进行评估 -
评估结果以log的形式直接打印输出GAP、Hit@1等精度指标
-
使用CPU进行评估时,请将
use_gpu
设置为False
模型参数列表如下:
参数 | 取值 |
---|---|
embedding_size | 512 |
lstm_size | 1024 |
drop_rate | 0.5 |
计算指标列表如下:
精度指标 | 模型精度 |
---|---|
Hit@1 | 0.8885 |
PERR | 0.8012 |
GAP | 0.8594 |
可通过如下两种方式启动模型推断:
python predict.py --model_name=AttentionLSTM \
--config=configs/attention_lstm.yaml \
--log_interval=1 \
--weights=$PATH_TO_WEIGHTS \
--filelist=$FILELIST \
--use_gpu=True
bash run.sh predict AttentionLSTM ./configs/attention_lstm.yaml
-
使用python命令行启动程序时,
--filelist
参数指定待推断的文件列表,如果不设置,默认为data/dataset/youtube8m/infer.list。--weights
参数为训练好的权重参数,如果不设置,程序会自动下载已训练好的权重。这两个参数如果不设置,请不要写在命令行,将会自动使用默 认值。 -
使用
run.sh
进行评估时,请修改脚本中的weights
参数指定需要用到的权重。 -
若未指定
--weights
参数,脚本会下载已发布模型model进行推断 -
模型推断结果以log的形式直接打印输出,可以看到每个测试样本的分类预测概率。
-
使用CPU进行预测时,请将
use_gpu
设置为False
-
Beyond Short Snippets: Deep Networks for Video Classification Joe Yue-Hei Ng, Matthew Hausknecht, Sudheendra Vijayanarasimhan, Oriol Vinyals, Rajat Monga, George Toderici
-
Attention Clusters: Purely Attention Based Local Feature Integration for Video Classification, Xiang Long, Chuang Gan, Gerard de Melo, Jiajun Wu, Xiao Liu, Shilei Wen