五月天青色头像情侣网名,国产亚洲av片在线观看18女人,黑人巨茎大战俄罗斯美女,扒下她的小内裤打屁股

歡迎光臨散文網(wǎng) 會員登陸 & 注冊

多模態(tài)論文串講·下【論文精讀·49】

2023-08-12 22:03 作者:TYの阿凱  | 我要投稿

上次多模態(tài)串講主要是講了用transformer encoder的多模態(tài)模型

這一篇來講使用transformer encoder + decoder的多模態(tài)模型

BLIP

結(jié)合了ALBEF (保證模態(tài)融合和圖像的特征學(xué)好,同時(shí)計(jì)算量和CLIP相當(dāng)) 和VLMO (比較靈活) 里的想法,設(shè)計(jì)了一個(gè)很靈活的框架

  • 可以deal with noisy data
  • 一個(gè)框架又干生成,又可以干image-text retrieval

貢獻(xiàn)點(diǎn)1 - 模型結(jié)構(gòu)

等于有3個(gè)task,根據(jù)不同的loss function,用不同的輸入去做forward

先不看最右邊的 image-grouded text decoder

如果我們把中間的image-grounded text encoder移到text encoder上面,和左邊的image encoder組合起來其實(shí)就是ALBEF,但是有一點(diǎn)不同的是,借鑒了VLMO里self-attention共享參數(shù)的做法 (圖中同樣的顏色代表參數(shù)共享)

現(xiàn)在來看最右邊的 image-grouded text decoder, causal self-attention, 即只通過前面的文本來預(yù)測后面的文本,最后的loss用的是LM而不是MLM因?yàn)椴皇窃谧鐾晷翁羁樟?/p>

大體來看,增加的參數(shù)量 也就是causal self-attention的地方

Unified Framework!! (雖然不是真正意義上的unified,但是很靈活)

同樣地,這里訓(xùn)練時(shí)每一個(gè)iteration要做3次forward,來算不同的loss function

由于是ALBEF原班人馬,這里用了很多ALBEF的技巧,例如在ITC上用momentum distillation,和利用ITC抽取最難的樣本來計(jì)算ITM

貢獻(xiàn)點(diǎn)2 - Dataset bootstrapping

Motivation - 網(wǎng)上扒下來的數(shù)據(jù)集質(zhì)量不高

用高質(zhì)量 (圖中帶綠色T的)圖片文本對fine tune text encoder和decoder

  • 用image-grounded text encoder過濾掉錯(cuò)誤文本對
  • 用decoder給圖片生成新的高質(zhì)量的caption,拿去過濾

最后數(shù)據(jù)集擴(kuò)大了,質(zhì)量也提高了








多模態(tài)論文串講·下【論文精讀·49】的評論 (共 條)

分享到微博請遵守國家法律
和平区| 通渭县| 舒城县| 漠河县| 文成县| 盐亭县| 鹿泉市| 全椒县| 丰镇市| 安乡县| 隆昌县| 建瓯市| 寿阳县| 兖州市| 新民市| 常山县| 安宁市| 蒙阴县| 定结县| 吉首市| 同江市| 双城市| 蛟河市| 墨玉县| 社旗县| 隆尧县| 灵川县| 彰武县| 石渠县| 福清市| 溧阳市| 黑山县| 恩平市| 霍州市| 乡城县| 荥经县| 榆社县| 长葛市| 越西县| 白沙| 柘荣县|