論文の概要: Bridge-Tower: Building Bridges Between Encoders in Vision-Language
Representation Learning
- arxiv url: http://arxiv.org/abs/2206.08657v1
- Date: Fri, 17 Jun 2022 09:42:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-20 12:14:49.663045
- Title: Bridge-Tower: Building Bridges Between Encoders in Vision-Language
Representation Learning
- Title(参考訳): 橋梁:視覚言語表現学習におけるエンコーダ間の橋梁構築
- Authors: Xiao Xu, Chenfei Wu, Shachar Rosenman, Vasudev Lal, Nan Duan
- Abstract要約: 近年,2towerアーキテクチャを用いた視覚言語モデル(VL)が視覚表現学習を支配している。
本稿では,ユニモーダルエンコーダの上位層とクロスモーダルエンコーダの各層とを接続する複数のブリッジ層を提案する。
提案するBridgeTowerは4M(約480万円)の画像のみを事前訓練し,様々な下流視力のタスクで最先端のパフォーマンスを実現する。
- 参考スコア(独自算出の注目度): 48.07840459267347
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Vision-Language (VL) models with the Two-Tower architecture have dominated
visual-language representation learning in recent years. Current VL models
either use lightweight uni-modal encoders and learn to extract, align and fuse
both modalities simultaneously in a cross-modal encoder, or feed the last-layer
uni-modal features directly into the top cross-modal encoder, ignoring the
semantic information at the different levels in the deep uni-modal encoders.
Both approaches possibly restrict vision-language representation learning and
limit model performance. In this paper, we introduce multiple bridge layers
that build a connection between the top layers of uni-modal encoders and each
layer of the cross-modal encoder. This enables comprehensive bottom-up
interactions between visual and textual representations at different semantic
levels, resulting in more effective cross-modal alignment and fusion. Our
proposed Bridge-Tower, pre-trained with only $4$M images, achieves
state-of-the-art performance on various downstream vision-language tasks. On
the VQAv2 test-std set, Bridge-Tower achieves an accuracy of $78.73\%$,
outperforming the previous state-of-the-art METER model by $1.09\%$ with the
same pre-training data and almost no additional parameters and computational
cost. Notably, when further scaling the model, Bridge-Tower achieves an
accuracy of $81.15\%$, surpassing models that are pre-trained on
orders-of-magnitude larger datasets. Code is available at
https://github.com/microsoft/BridgeTower.
- Abstract(参考訳): 近年,2towerアーキテクチャを用いた視覚言語モデル(VL)が視覚言語表現学習を支配している。
現在のvlモデルは軽量なユニモーダルエンコーダを使用して、クロスモーダルエンコーダで同時に両方のモダリティを抽出、調整、融合することを学習するか、最上位のクロスモーダルエンコーダに直接ラスト層ユニモーダル機能を供給し、ディープユニモーダルエンコーダの異なるレベルでの意味情報を無視する。
どちらのアプローチも視覚言語表現学習とモデル性能を制限する可能性がある。
本稿では,ユニモーダルエンコーダの上位層とクロスモーダルエンコーダの各層とを接続する複数のブリッジ層を提案する。
これにより、視覚的およびテキスト的表現の様々な意味レベルでの包括的ボトムアップ相互作用が可能となり、より効果的な相互モーダルアライメントと融合が実現される。
提案するBridge-Towerは,4Mイメージのみを事前学習し,様々な下流視覚言語タスクにおける最先端のパフォーマンスを実現する。
vqav2テスト-stdセットでは、ブリッジ-トワーは78.73\%$の精度を達成し、同じ事前トレーニングデータで以前の最先端メーターモデルよりも1.09\%高くなり、追加パラメータや計算コストもほとんどない。
特に、モデルをさらにスケールする場合、Bridge-Tower は 811.15\% の精度を達成し、マグニチュードの大きなデータセットで事前訓練されたモデルを上回る。
コードはhttps://github.com/microsoft/BridgeTower.comで入手できる。
関連論文リスト
- From Unimodal to Multimodal: Scaling up Projectors to Align Modalities [16.733970553781887]
そこで本研究では,事前学習した凍結アンモダルエンコーダ上の投影層のみを用いて,視覚と言語モダリティを整合させる手法を提案する。
本手法は,よく訓練された視覚の埋め込み空間と言語モデルとのセマンティックな類似性を利用した。
これには、潜在空間における意味的に類似したエンコーダの選択、イメージキャプチャペアの概念豊富なデータセットのキュレーション、シンプルなプロジェクタのトレーニングが含まれる。
論文 参考訳(メタデータ) (2024-09-28T17:57:32Z) - ManagerTower: Aggregating the Insights of Uni-Modal Experts for
Vision-Language Representation Learning [73.47165576175541]
2tower Vision-Language (VL)モデルは、様々な下流タスクに有望な改善を示している。
異なるレベルの訓練済みユニモーダル専門家の洞察を収集し、組み合わせた、新しいVLモデルアーキテクチャであるManageTowerを提案する。
論文 参考訳(メタデータ) (2023-05-31T18:23:57Z) - Enabling Multimodal Generation on CLIP via Vision-Language Knowledge
Distillation [79.72299298976525]
我々は、視覚言語知識蒸留(VLKD)を通して、テキスト事前学習言語モデル(PLM)を用いた視覚言語事前学習モデルの拡張を提案する。
実験の結果,複数モーダル生成タスクにおいて,視覚的質問応答や画像キャプションなどのゼロショット性能が強いことがわかった。
PLMの本来のテキスト言語理解と生成能力は、VLKDの後に維持される。
論文 参考訳(メタデータ) (2022-03-12T09:33:37Z) - UniXcoder: Unified Cross-Modal Pre-training for Code Representation [65.6846553962117]
プログラミング言語のためのクロスモーダル事前学習モデルUniXcoderを提案する。
木の構造情報を全て保持するシーケンス構造でASTを変換する1対1のマッピング手法を提案する。
我々は,UniXcoderを9つのデータセット上で5つのコード関連タスクで評価する。
論文 参考訳(メタデータ) (2022-03-08T04:48:07Z) - An Empirical Study of Training End-to-End Vision-and-Language
Transformers [50.23532518166621]
我々はMETER(textbfMultimodal textbfEnd-to-end textbfTransformtextbfER)を提案する。
具体的には、視覚エンコーダ(例えば、CLIP-ViT、Swin変換器)、テキストエンコーダ(例えば、RoBERTa、DeBERTa)、マルチモーダルフュージョン(例えば、マージアテンション対共振器)である。
論文 参考訳(メタデータ) (2021-11-03T17:55:36Z) - WenLan: Bridging Vision and Language by Large-Scale Multi-Modal
Pre-Training [71.37731379031487]
クロスモーダルコントラスト学習フレームワークにおいて,BriVLと呼ばれる2重塔前訓練モデルを提案する。
単純なコントラスト学習手法を採用したopenaiクリップとは異なり,最新のメソッドmocoをクロスモーダルシナリオに適用することにより,より高度なアルゴリズムを考案する。
大規模なキューベースの辞書を構築することで、BriVLは限られたGPUリソースにネガティブなサンプルを組み込むことができます。
論文 参考訳(メタデータ) (2021-03-11T09:39:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。