論文の概要: Improving Transformer-Kernel Ranking Model Using Conformer and Query
Term Independence
- arxiv url: http://arxiv.org/abs/2104.09393v1
- Date: Mon, 19 Apr 2021 15:32:34 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-20 14:22:45.337938
- Title: Improving Transformer-Kernel Ranking Model Using Conformer and Query
Term Independence
- Title(参考訳): コンバータとクエリ項独立性を用いたトランスフォーマーカーネルランキングモデルの改善
- Authors: Bhaskar Mitra, Sebastian Hofstatter, Hamed Zamani and Nick Craswell
- Abstract要約: Transformer-Kernel(TK)モデルは、TREC Deep Learningベンチマークで強力なリランクパフォーマンスを示しています。
TKLと呼ばれるTKモデルの変種が開発され、より長い入力シーケンスを効率的に処理するためにローカルの自己意識が組み込まれている。
本稿では,より長い入力列にtkをスケールするための代替手法として,新しい適合層を提案する。
- 参考スコア(独自算出の注目度): 29.442579683405913
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The Transformer-Kernel (TK) model has demonstrated strong reranking
performance on the TREC Deep Learning benchmark -- and can be considered to be
an efficient (but slightly less effective) alternative to other
Transformer-based architectures that employ (i) large-scale pretraining (high
training cost), (ii) joint encoding of query and document (high inference
cost), and (iii) larger number of Transformer layers (both high training and
high inference costs). Since, a variant of the TK model -- called TKL -- has
been developed that incorporates local self-attention to efficiently process
longer input sequences in the context of document ranking. In this work, we
propose a novel Conformer layer as an alternative approach to scale TK to
longer input sequences. Furthermore, we incorporate query term independence and
explicit term matching to extend the model to the full retrieval setting. We
benchmark our models under the strictly blind evaluation setting of the TREC
2020 Deep Learning track and find that our proposed architecture changes lead
to improved retrieval quality over TKL. Our best model also outperforms all
non-neural runs ("trad") and two-thirds of the pretrained Transformer-based
runs ("nnlm") on NDCG@10.
- Abstract(参考訳): tk(transformer-kernel)モデルは、trec deep learningベンチマークで強力なリランキングパフォーマンスを示している -- そして、(i)大規模事前トレーニング(高いトレーニングコスト)、(ii)クエリとドキュメントのジョイントエンコーディング(高い推論コスト)、(iii)多くのトランスフォーマー層(高いトレーニングと高い推論コストの両方)を採用する、他のトランスフォーマーベースのアーキテクチャに代わる、効率的(しかし少しは効果的ではない)な代替案と見なすことができる。
その後、tklと呼ばれるtkモデルの変種が開発され、文書のランク付けの文脈において、より長い入力シーケンスを効率的に処理するために、ローカルなセルフアテンションが組み込まれている。
本稿では,より長い入力列にtkをスケールするための代替手法として,新しい適合層を提案する。
さらに,クエリ項の独立性と明示的な項マッチングを組み込んで,モデルを完全に検索設定に拡張する。
trec 2020ディープラーニングトラックの厳密なブラインド評価設定下でのモデルベンチマークを行い,提案するアーキテクチャ変更がtklよりも検索品質の向上につながることを確認した。
我々の最良のモデルは、NDCG@10でトレーニング済みのTransformerベースのラン(nnlm)の3分の2の非ニューロンラン(trad)を上回ります。
関連論文リスト
- REP: Resource-Efficient Prompting for On-device Continual Learning [23.92661395403251]
オンデバイス連続学習(CL)は、モデル精度と資源効率の協調最適化を実践するために必要である。
CNNベースのCLは資源効率に優れており、ViTベースのCLはモデル性能に優れていると一般的に信じられている。
本稿では,プロンプトベースのリハーサルフリー手法を特化して資源効率を向上させるREPを紹介する。
論文 参考訳(メタデータ) (2024-06-07T09:17:33Z) - Emergent Agentic Transformer from Chain of Hindsight Experience [96.56164427726203]
簡単なトランスフォーマーベースモデルが時間差と模倣学習に基づくアプローチの両方と競合することを示す。
単純なトランスフォーマーベースのモデルが時間差と模倣学習ベースのアプローチの両方で競合するのはこれが初めてである。
論文 参考訳(メタデータ) (2023-05-26T00:43:02Z) - Full Stack Optimization of Transformer Inference: a Survey [58.55475772110702]
トランスフォーマーモデルは広範囲のアプリケーションにまたがって優れた精度を実現する。
最近のTransformerモデルの推測に必要な計算量と帯域幅は、かなり増加しています。
Transformerモデルをより効率的にすることに注力している。
論文 参考訳(メタデータ) (2023-02-27T18:18:13Z) - Transformers for End-to-End InfoSec Tasks: A Feasibility Study [6.847381178288385]
私たちは2つの異なるInfoSecデータフォーマット、特にURLとPEファイルに対してトランスフォーマーモデルを実装します。
URLトランスフォーマーモデルは、高いパフォーマンスレベルに達するためには、異なるトレーニングアプローチが必要です。
提案手法は,PEファイルのベンチマークデータセット上で,確立されたマルウェア検出モデルに相容れない性能を示す。
論文 参考訳(メタデータ) (2022-12-05T23:50:46Z) - Adapted Multimodal BERT with Layer-wise Fusion for Sentiment Analysis [84.12658971655253]
本稿では,マルチモーダルタスクのためのBERTベースのアーキテクチャであるAdapted Multimodal BERTを提案する。
アダプタはタスクの事前訓練された言語モデルを手動で調整し、融合層はタスク固有の層ワイドな音声視覚情報とテキストBERT表現を融合させる。
われわれは、このアプローチがより効率的なモデルにつながり、微調整されたモデルよりも優れ、ノイズの入力に堅牢であることを示した。
論文 参考訳(メタデータ) (2022-12-01T17:31:42Z) - AutoBERT-Zero: Evolving BERT Backbone from Scratch [94.89102524181986]
そこで本稿では,提案するハイブリッドバックボーンアーキテクチャを自動検索するOP-NASアルゴリズムを提案する。
提案するOP-NASの効率を向上させるために,探索アルゴリズムと候補モデルの評価を最適化する。
実験の結果、検索されたアーキテクチャ(AutoBERT-Zero)は、様々な下流タスクにおいてBERTとそのバリエーションの異なるモデル容量を著しく上回っていることがわかった。
論文 参考訳(メタデータ) (2021-07-15T16:46:01Z) - Layer Pruning on Demand with Intermediate CTC [50.509073206630994]
我々はコネクショニスト時間分類(CTC)に基づくASRの訓練と刈り取り方法を提案する。
本稿では,Transformer-CTCモデルをオンデマンドで様々な深さでプルーニングできることを示し,GPU上でのリアルタイム係数を0.005から0.002に改善した。
論文 参考訳(メタデータ) (2021-06-17T02:40:18Z) - SIT3: Code Summarization with Structure-Induced Transformer [48.000063280183376]
シーケンシャル入力を高効率な構造モデリングでエンコードする構造誘起自己保持に基づく新しいモデルを提案する。
新たに提案したモデルでは,一般的なベンチマークで最新の結果が得られる。
論文 参考訳(メタデータ) (2020-12-29T11:37:43Z) - Long Document Ranking with Query-Directed Sparse Transformer [30.997237454078526]
我々は、変換器自己アテンションにおけるIR-アキシマティック構造を誘導するクエリ指向スパースアテンションを設計する。
我々のモデルであるQDS-Transformerは、ランク付けにおいて望ましい原則特性を強制する。
1つの完全に教師されたTREC文書ランキングベンチマークと3つの数ショットのTREC文書ベンチマークの実験は、QDS-Transformerの一貫性と堅牢性を示している。
論文 参考訳(メタデータ) (2020-10-23T21:57:56Z) - Conformer-Kernel with Query Term Independence for Document Retrieval [32.36908635150144]
Transformer- Kernel (TK) モデルは、TREC Deep Learningベンチマークで強力な再ランク性能を示している。
我々は、クエリ項独立仮定を組み込むことで、TKアーキテクチャを完全な検索設定に拡張する。
コンフォーマーのGPUメモリ要件は入力シーケンス長と線形にスケールすることを示し、長いドキュメントのランク付けにおいてより有効な選択肢であることを示す。
論文 参考訳(メタデータ) (2020-07-20T19:47:28Z) - Document Ranking with a Pretrained Sequence-to-Sequence Model [56.44269917346376]
関連ラベルを「ターゲット語」として生成するためにシーケンス・ツー・シーケンス・モデルをどのように訓練するかを示す。
提案手法は,データポーラ方式におけるエンコーダのみのモデルよりも大幅に優れている。
論文 参考訳(メタデータ) (2020-03-14T22:29:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。