开始整理transformer在视频搜索中的应用,涵盖:视频搜索,模型优化等,欢迎大家关注哇
transformer vide
training
transformer 的显存占用和输入的token个数成平方关系的,所以如果输入的序列很短,训练 起来
paper:UniMoCo: Unsupervised, SemiSupervised and FullSupervised
transformer转onnx,直接采用pytorch的原生接口,不依赖huggingface的工具,会更方便,代码如下
pool.applyasync() 函数有个入参:callback,是在父进程维护的,在每个子进程处理完之后,都会调用该函数。