論文の概要: Semi-Siamese Bi-encoder Neural Ranking Model Using Lightweight
Fine-Tuning
- arxiv url: http://arxiv.org/abs/2110.14943v1
- Date: Thu, 28 Oct 2021 08:26:46 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-29 15:22:18.558318
- Title: Semi-Siamese Bi-encoder Neural Ranking Model Using Lightweight
Fine-Tuning
- Title(参考訳): 軽量ファインチューニングを用いたセミサイムズバイエンコーダニューラルランキングモデル
- Authors: Euna Jung, Jaekeol Choi, Wonjong Rhee
- Abstract要約: BERTベースのバイエンコーダの性能向上のための2つの手法を示す。
最初のアプローチは、完全な微調整のステップを軽量な微調整に置き換えることだ。
第2のアプローチは、クエリとドキュメントを限定的な差分で処理するセミ・シームズモデルを開発することである。
- 参考スコア(独自算出の注目度): 4.38301148531795
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A BERT-based Neural Ranking Model (NRM) can be either a cross-encoder or a
bi-encoder. Between the two, bi-encoder is highly efficient because all the
documents can be pre-processed before the actual query time. Although query and
document are independently encoded, the existing bi-encoder NRMs are Siamese
models where a single language model is used for consistently encoding both of
query and document. In this work, we show two approaches for improving the
performance of BERT-based bi-encoders. The first approach is to replace the
full fine-tuning step with a lightweight fine-tuning. We examine lightweight
fine-tuning methods that are adapter-based, prompt-based, and hybrid of the
two. The second approach is to develop semi-Siamese models where queries and
documents are handled with a limited amount of difference. The limited
difference is realized by learning two lightweight fine-tuning modules, where
the main language model of BERT is kept common for both query and document. We
provide extensive experiment results for monoBERT, TwinBERT, and ColBERT where
three performance metrics are evaluated over Robust04, ClueWeb09b, and MS-MARCO
datasets. The results confirm that both lightweight fine-tuning and
semi-Siamese are considerably helpful for improving BERT-based bi-encoders. In
fact, lightweight fine-tuning is helpful for cross-encoder, too.
- Abstract(参考訳): BERTベースのニューラルランキングモデル(NRM)はクロスエンコーダかバイエンコーダのいずれかである。
2つの間にバイエンコーダは、すべてのドキュメントを実際のクエリ時間前に前処理できるため、非常に効率的である。
クエリとドキュメントは独立にエンコードされているが、既存のバイエンコーダ NRM は、クエリとドキュメントの両方を一貫してエンコードするために単一の言語モデルを使用するジームモデルである。
本稿では,bertベースのbiエンコーダの性能向上のための2つの手法を示す。
最初のアプローチは、完全な微調整ステップを軽量な微調整に置き換えることである。
本稿では,アダプタベース,プロンプトベース,ハイブリッドの軽量微調整手法について検討する。
第2のアプローチは、クエリとドキュメントを限定的な差分で処理するセミ・シームズモデルを開発することである。
制限された違いは、2つの軽量な微調整モジュールを学習することによって実現される。
monoBERT, TwinBERT, ColBERTでは, Robust04, ClueWeb09b, MS-MARCOデータセットに対して3つの評価結果が得られた。
その結果,BERTベースのバイエンコーダの改良には,軽量微調整とセミシームの両方が有効であることが確認された。
実際、軽量な微調整はクロスエンコーダにも役立ちます。
関連論文リスト
- Improving Code Search with Hard Negative Sampling Based on Fine-tuning [15.341959871682981]
本稿では,クエリとコードの結合を共同で符号化するコード検索のためのクロスエンコーダアーキテクチャを提案する。
また、両エンコーダとクロスエンコーダをカスケードしたRetriever-Ranker(RR)フレームワークを導入し、評価とオンラインサービスの有効性を高める。
論文 参考訳(メタデータ) (2023-05-08T07:04:28Z) - Revisiting Code Search in a Two-Stage Paradigm [67.02322603435628]
TOSSは2段階のフュージョンコード検索フレームワークである。
まずIRベースのバイエンコーダモデルを使用して、少数のトップkコード候補を効率的にリコールする。
その後、より微細なクロスエンコーダを使用してランク付けを行う。
論文 参考訳(メタデータ) (2022-08-24T02:34:27Z) - Learning Diverse Document Representations with Deep Query Interactions
for Dense Retrieval [79.37614949970013]
そこで本研究では,問合せの深い文書表現を学習する高密度検索モデルを提案する。
本モデルでは,各文書に生成した擬似クエリをエンコードして,クエリインフォームド・マルチビュー文書表現を得る。
論文 参考訳(メタデータ) (2022-08-08T16:00:55Z) - ED2LM: Encoder-Decoder to Language Model for Faster Document Re-ranking
Inference [70.36083572306839]
本稿では,再ランク付けのための新しいトレーニングおよび推論パラダイムを提案する。
文書形式を用いて事前訓練したエンコーダ・デコーダモデルを精査し,クエリ生成を行う。
このエンコーダ-デコーダアーキテクチャは,推論中にデコーダのみの言語モデルに分解可能であることを示す。
論文 参考訳(メタデータ) (2022-04-25T06:26:29Z) - UniXcoder: Unified Cross-Modal Pre-training for Code Representation [65.6846553962117]
プログラミング言語のためのクロスモーダル事前学習モデルUniXcoderを提案する。
木の構造情報を全て保持するシーケンス構造でASTを変換する1対1のマッピング手法を提案する。
我々は,UniXcoderを9つのデータセット上で5つのコード関連タスクで評価する。
論文 参考訳(メタデータ) (2022-03-08T04:48:07Z) - Hierarchical Neural Network Approaches for Long Document Classification [3.6700088931938835]
我々は、より効率的な表現を効率よく捉えるために、事前訓練された普遍文(USE)と変換器からの双方向表現(BERT)を階層的に採用する。
提案するモデルは概念的に単純であり,入力データをチャンクに分割し,BERTとUSEのベースモデルに渡す。
USE + CNN/LSTM はスタンドアローンのベースラインよりも優れており、BERT + CNN/LSTM はスタンドアローンのベースラインと同等である。
論文 参考訳(メタデータ) (2022-01-18T07:17:40Z) - BinaryBERT: Pushing the Limit of BERT Quantization [74.65543496761553]
本稿では、BERT量子化を重み二項化の限界まで押し上げるBinaryBERTを提案する。
複雑で不規則な損失環境のため,バイナリBERTは3次学習よりも直接訓練が難しいことが判明した。
実験結果から、BinaryBERT は完全精度 BERT ベースと比較して無視できる性能低下を示した。
論文 参考訳(メタデータ) (2020-12-31T16:34:54Z) - Incorporating BERT into Parallel Sequence Decoding with Adapters [82.65608966202396]
本稿では,2種類のBERTモデルをエンコーダとデコーダとして取り出し,シンプルで軽量なアダプタモジュールを導入し,それらを微調整する。
我々は、ソース側およびターゲット側BERTモデルに含まれる情報を協調的に活用できるフレキシブルで効率的なモデルを得る。
我々のフレームワークは、BERTの双方向および条件独立性を考慮した、Mask-Predictという並列シーケンス復号アルゴリズムに基づいている。
論文 参考訳(メタデータ) (2020-10-13T03:25:15Z) - TwinBERT: Distilling Knowledge to Twin-Structured BERT Models for
Efficient Retrieval [11.923682816611716]
本稿では,効率的な検索のためのTwinBERTモデルを提案する。
クエリとドキュメントをそれぞれ表現するBERTライクなエンコーダがツイン構造化されている。
ドキュメントの埋め込みはオフラインでプリコンパイルされ、メモリにキャッシュされる。
論文 参考訳(メタデータ) (2020-02-14T22:44:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。