論文の概要: Text-to-Text Multi-view Learning for Passage Re-ranking
- arxiv url: http://arxiv.org/abs/2104.14133v1
- Date: Thu, 29 Apr 2021 06:12:34 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-30 12:56:20.000073
- Title: Text-to-Text Multi-view Learning for Passage Re-ranking
- Title(参考訳): 文章からテキストへのマルチビュー学習
- Authors: Jia-Huei Ju, Jheng-Hong Yang, Chuan-Ju Wang
- Abstract要約: テキスト生成ビューという新たなビューを典型的なシングルビューパスランキングモデルに組み込むことで,テキストからテキストへのマルチビュー学習フレームワークを提案する。
実証的に、提案されたアプローチは、シングルビューと比べ、ランキングのパフォーマンスに役立ちます。
- 参考スコア(独自算出の注目度): 6.3747034690874305
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, much progress in natural language processing has been driven by
deep contextualized representations pretrained on large corpora. Typically, the
fine-tuning on these pretrained models for a specific downstream task is based
on single-view learning, which is however inadequate as a sentence can be
interpreted differently from different perspectives. Therefore, in this work,
we propose a text-to-text multi-view learning framework by incorporating an
additional view -- the text generation view -- into a typical single-view
passage ranking model. Empirically, the proposed approach is of help to the
ranking performance compared to its single-view counterpart. Ablation studies
are also reported in the paper.
- Abstract(参考訳): 近年, 自然言語処理の進歩は, 大規模コーパス上で事前訓練された深層文脈表現によって促進されている。
通常、特定の下流タスクに対するこれらの事前訓練されたモデルの微調整は、単一視点学習に基づいているが、文として不十分な文は異なる視点から解釈することができる。
そこで本研究では,テキスト生成ビューという付加的なビューを,従来の単視点通路ランキングモデルに組み込むことにより,テキスト対テキスト多視点学習フレームワークを提案する。
実証的に、提案されたアプローチは、シングルビューと比べ、ランキングのパフォーマンスに役立ちます。
アブレーションの研究も論文で報告されている。
関連論文リスト
- Manual Verbalizer Enrichment for Few-Shot Text Classification [1.860409237919611]
acrshortmaveは、クラスラベルの豊か化による動詞化のためのアプローチである。
本モデルでは, 資源を著しく減らしながら, 最先端の成果が得られている。
論文 参考訳(メタデータ) (2024-10-08T16:16:47Z) - Composition-contrastive Learning for Sentence Embeddings [23.85590618900386]
この作業は、補助的なトレーニング目標や追加のネットワークパラメータのコストを発生させることなく、初めて実施される。
意味的テキスト類似性タスクの実験結果は、最先端のアプローチに匹敵するベースラインの改善を示す。
論文 参考訳(メタデータ) (2023-07-14T14:39:35Z) - Fine-Grained Semantically Aligned Vision-Language Pre-Training [151.7372197904064]
大規模な視覚言語による事前学習は、幅広い下流タスクにおいて顕著な進歩を見せている。
既存の手法は主に、画像とテキストのグローバルな表現の類似性によって、モーダル間のアライメントをモデル化する。
ゲーム理論的相互作用の新たな視点から, 微粒なセマンティックアライメントを学習する, 微粒なセマンティックなvisiOn-langUage PrEトレーニングフレームワークであるLOを導入する。
論文 参考訳(メタデータ) (2022-08-04T07:51:48Z) - Multimodal Semi-Supervised Learning for Text Recognition [10.33262222726707]
本稿では,モダリティ学習の各段階におけるラベルなしデータを活用する多モーダルテキスト認識器(SemiMTR)について半教師付き学習を行う。
我々のアルゴリズムは、教師あり学習と自己教師あり学習を一体化する一段階の訓練を通して、視覚モデルを事前訓練することから始まる。
新たなセットアップでは、各モダリティに個別に一貫性が強制される。
論文 参考訳(メタデータ) (2022-05-08T13:55:30Z) - Vision-Language Pre-Training for Boosting Scene Text Detectors [57.08046351495244]
シーンテキスト検出に視覚言語を用いた共同学習を特に応用する。
本稿では,視覚言語による事前学習を通して,文脈化された共同表現を学習することを提案する。
事前訓練されたモデルは、よりリッチなセマンティクスでより情報的な表現を生成することができる。
論文 参考訳(メタデータ) (2022-04-29T03:53:54Z) - Dependency Induction Through the Lens of Visual Perception [81.91502968815746]
本稿では,単語の具体性を利用した教師なし文法帰納モデルと,構成的視覚に基づく構成的文法を共同学習する手法を提案する。
実験により,提案した拡張は,文法的サイズが小さい場合でも,現在最先端の視覚的接地モデルよりも優れた性能を示すことが示された。
論文 参考訳(メタデータ) (2021-09-20T18:40:37Z) - Sequence Level Contrastive Learning for Text Summarization [49.01633745943263]
教師付き抽象テキスト要約のためのコントラスト学習モデルを提案する。
我々のモデルは、対照的な目的を伴わずに、それと比べ、より良い忠実度の評価を達成する。
論文 参考訳(メタデータ) (2021-09-08T08:00:36Z) - Accurate Word Representations with Universal Visual Guidance [55.71425503859685]
本稿では,視覚指導から従来の単語埋め込みを視覚的に強調する視覚的表現法を提案する。
各単語が多様な関連画像に対応するマルチモーダルシードデータセットから,小型の単語画像辞書を構築する。
12の自然言語理解および機械翻訳タスクの実験により,提案手法の有効性と一般化能力がさらに検証された。
論文 参考訳(メタデータ) (2020-12-30T09:11:50Z) - Improving Image Captioning with Better Use of Captions [65.39641077768488]
本稿では,画像表現とキャプション生成の両方を強化するために,キャプションで利用可能なセマンティクスをよりよく探求するための新しい画像キャプションアーキテクチャを提案する。
我々のモデルはまず,弱教師付きマルチインスタンス学習を用いて,有益な帰納バイアスをもたらすキャプション誘導型視覚関係グラフを構築した。
生成期間中、このモデルは、単語とオブジェクト/述語タグのシーケンスを共同で予測するために、マルチタスク学習を用いた視覚関係をさらに取り入れる。
論文 参考訳(メタデータ) (2020-06-21T14:10:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。