論文の概要: Quality and Cost Trade-offs in Passage Re-ranking Task
- arxiv url: http://arxiv.org/abs/2111.09927v1
- Date: Thu, 18 Nov 2021 19:47:45 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-22 15:59:13.459064
- Title: Quality and Cost Trade-offs in Passage Re-ranking Task
- Title(参考訳): 受入れ業務における品質・コストトレードオフ
- Authors: Pavel Podberezko, Vsevolod Mitskevich, Raman Makouski, Pavel
Goncharov, Andrei Khobnia, Nikolay Bushkov, Marina Chernyshevich
- Abstract要約: 本稿では,情報検索パイプラインのランキングステップにおいて,適切なアーキテクチャを選択するかという問題に焦点をあてる。
コルベルトアーキテクチャやポリエンコーダアーキテクチャなどの遅延相互作用モデルとその修正について検討した。
また,検索インデックスのメモリフットプリントの処理を行い,変換器エンコーダから出力ベクトルを二項化するためにラーニング・ツー・ハッシュ法を適用しようとした。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning models named transformers achieved state-of-the-art results in
a vast majority of NLP tasks at the cost of increased computational complexity
and high memory consumption. Using the transformer model in real-time inference
becomes a major challenge when implemented in production, because it requires
expensive computational resources. The more executions of a transformer are
needed the lower the overall throughput is, and switching to the smaller
encoders leads to the decrease of accuracy. Our paper is devoted to the problem
of how to choose the right architecture for the ranking step of the information
retrieval pipeline, so that the number of required calls of transformer encoder
is minimal with the maximum achievable quality of ranking. We investigated
several late-interaction models such as Colbert and Poly-encoder architectures
along with their modifications. Also, we took care of the memory footprint of
the search index and tried to apply the learning-to-hash method to binarize the
output vectors from the transformer encoders. The results of the evaluation are
provided using TREC 2019-2021 and MS Marco dev datasets.
- Abstract(参考訳): トランスフォーマーと呼ばれるディープラーニングモデルは最先端の成果を達成し、計算の複雑さと高メモリ消費のコストを犠牲にして、nlpタスクの大部分を実現した。
リアルタイム推論におけるトランスフォーマーモデルの使用は、高価な計算リソースを必要とするため、実運用環境での実装において大きな課題となる。
トランスの実行が多ければ多いほど、全体のスループットが低くなり、より小さなエンコーダに切り替えることで、精度が低下する。
本稿では,情報検索パイプラインのランク付けステップにおいて,必要なトランスフォーマーエンコーダの呼び出し数が最小限に抑えられるように,適切なアーキテクチャを選択するかという問題に焦点をあてる。
colbert や poly-encoder などの遅延相互作用モデルとその修正について検討した。
また,検索インデックスのメモリフットプリントに着目し,トランスコーダからの出力ベクトルのバイナリ化に learning-to-hash 法を適用した。
評価結果はTREC 2019-2021とMS Marco開発データセットを用いて行われる。
関連論文リスト
- Accelerating Error Correction Code Transformers [56.75773430667148]
本稿では,トランスを用いたデコーダの高速化手法を提案する。
最新のハードウェアでは、90%の圧縮比を実現し、算術演算エネルギー消費を少なくとも224倍削減する。
論文 参考訳(メタデータ) (2024-10-08T11:07:55Z) - ENACT: Entropy-based Clustering of Attention Input for Improving the Computational Performance of Object Detection Transformers [0.0]
トランスフォーマーは、視覚に基づく物体検出の問題において、精度で競合性能を示す。
本稿では,そのエントロピーに基づいて変換器の入力をクラスタリングする。
クラスタリングは、トランスへの入力として与えられるデータのサイズを削減し、トレーニング時間とGPUメモリ使用量を削減する。
論文 参考訳(メタデータ) (2024-09-11T18:03:59Z) - Noise-Robust Dense Retrieval via Contrastive Alignment Post Training [89.29256833403167]
Contrastive Alignment POst Training (CAPOT) は、指数再生を必要とせず、モデルロバスト性を改善する高効率な微調整法である。
CAPOTはドキュメントエンコーダを凍結することで堅牢な検索を可能にし、クエリエンコーダはノイズの多いクエリを修正されていないルートに整列させる。
MSMARCO、Natural Questions、Trivia QAパス検索のCAPOTノイズ変動を評価し、CAPOTがオーバーヘッドを伴わないデータ増大に類似した影響があることを発見した。
論文 参考訳(メタデータ) (2023-04-06T22:16:53Z) - Robust representations of oil wells' intervals via sparse attention
mechanism [2.604557228169423]
正規化変換器(Reguformers)と呼ばれる効率的な変換器のクラスを導入する。
私たちの実験の焦点は、石油とガスのデータ、すなわちウェルログにあります。
このような問題に対する我々のモデルを評価するために、20以上の井戸からなるウェルログからなる産業規模のオープンデータセットで作業する。
論文 参考訳(メタデータ) (2022-12-29T09:56:33Z) - Decoder Tuning: Efficient Language Understanding as Decoding [84.68266271483022]
本稿では,タスク固有のデコーダネットワークを出力側で最適化するデコーダチューニング(DecT)を提案する。
勾配ベースの最適化により、DecTは数秒以内にトレーニングでき、サンプル毎に1つのPクエリしか必要としない。
我々は、広範囲にわたる自然言語理解実験を行い、DecTが200ドル以上のスピードアップで最先端のアルゴリズムを大幅に上回っていることを示す。
論文 参考訳(メタデータ) (2022-12-16T11:15:39Z) - Decoupled Transformer for Scalable Inference in Open-domain Question
Answering [0.0]
BERTのような大規模変圧器モデルは、オープンドメイン質問応答(QA)のための機械読解(MRC)の最先端結果が得られる。
SQUAD 2.0データセットの実験では、切り離された変換器は、標準変換器に比べて1.2ポイント悪いF1スコアで、オープンドメインMCCの計算コストとレイテンシを30-40%削減する。
論文 参考訳(メタデータ) (2021-08-05T17:53:40Z) - Spatiotemporal Transformer for Video-based Person Re-identification [102.58619642363958]
我々は、強い学習能力にもかかわらず、バニラトランスフォーマーは過剰フィットのリスクの増加に苦しむことを示しています。
そこで本研究では,合成ビデオデータからモデルを事前学習し,下流領域に伝達する新しいパイプラインを提案する。
提案アルゴリズムは,3つの人気ビデオベース人物識別ベンチマークにおいて,精度向上を実現する。
論文 参考訳(メタデータ) (2021-03-30T16:19:27Z) - Developing Real-time Streaming Transformer Transducer for Speech
Recognition on Large-scale Dataset [37.619200507404145]
Transformer Transducer (T-T) モデルは、大規模なデータセット上で、低レイテンシで高速な高速なフィストパスデコーディングのためのモデルである。
我々はTransformer-XLとチャンクワイドストリーミング処理のアイデアを組み合わせて、ストリーム可能なTransformer Transducerモデルを設計する。
ストリーミングシナリオにおいて、T-Tはハイブリッドモデル、RNNトランスデューサ(RNN-T)、ストリーム可能なトランスフォーマーアテンションベースのエンコーダデコーダモデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2020-10-22T03:01:21Z) - AutoTrans: Automating Transformer Design via Reinforced Architecture
Search [52.48985245743108]
本稿では,手作業に適したトランスフォーマーアーキテクチャを実現するために,レイヤノルムの設定方法,スケール,レイヤ数,ヘッド数,アクティベーション関数などを実証的に検討する。
CoNLL03、Multi-30k、IWSLT14、WMT-14の実験は、探索されたトランスモデルが標準トランスモデルより優れていることを示している。
論文 参考訳(メタデータ) (2020-09-04T08:46:22Z) - The Cascade Transformer: an Application for Efficient Answer Sentence
Selection [116.09532365093659]
本稿では,変圧器をベースとしたモデルのカスケード化手法であるカスケード変換器について紹介する。
現状の変圧器モデルと比較すると,提案手法は精度にほとんど影響を与えずに計算量を37%削減する。
論文 参考訳(メタデータ) (2020-05-05T23:32:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。