論文の概要: A Study on Token Pruning for ColBERT
- arxiv url: http://arxiv.org/abs/2112.06540v1
- Date: Mon, 13 Dec 2021 10:24:54 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-14 17:44:58.517308
- Title: A Study on Token Pruning for ColBERT
- Title(参考訳): ColBERTのトーケンプルーニングに関する研究
- Authors: Carlos Lassance, Maroua Maachou, Joohee Park, St\'ephane Clinchant
- Abstract要約: ColBERTモデルは最近、有効なBERTベースのランク付けとして提案されている。
モデルの大きな欠点はインデックスサイズであり、コレクション内のトークンの数と線形にスケールする。
本稿では,この問題に対処するために,ColBERTモデルの様々な設計について検討する。
- 参考スコア(独自算出の注目度): 0.7646713951724011
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The ColBERT model has recently been proposed as an effective BERT based
ranker. By adopting a late interaction mechanism, a major advantage of ColBERT
is that document representations can be precomputed in advance. However, the
big downside of the model is the index size, which scales linearly with the
number of tokens in the collection. In this paper, we study various designs for
ColBERT models in order to attack this problem. While compression techniques
have been explored to reduce the index size, in this paper we study token
pruning techniques for ColBERT. We compare simple heuristics, as well as a
single layer of attention mechanism to select the tokens to keep at indexing
time. Our experiments show that ColBERT indexes can be pruned up to 30\% on the
MS MARCO passage collection without a significant drop in performance. Finally,
we experiment on MS MARCO documents, which reveal several challenges for such
mechanism.
- Abstract(参考訳): ColBERTモデルは最近、有効なBERTベースのランク付けとして提案されている。
遅延相互作用機構を採用することで、ColBERTの大きな利点は、文書表現を事前にプリ計算できることである。
しかし、モデルの大きな欠点はインデックスサイズであり、コレクション内のトークンの数に線形にスケールする。
本稿では,この問題に対処するために,ColBERTモデルの様々な設計について検討する。
インデックスサイズを低減するために圧縮技術が検討されているが,本研究ではColBERTのトークンプルーニング技術について検討する。
簡単なヒューリスティックスと、インデックス時間に保持するトークンを選択するための単一の注意機構を比較します。
実験の結果,ColBERT インデックスはMS MARCO パスコレクション上で最大30 % までプルーニングでき,性能が大幅に低下することはないことがわかった。
最後に,MS MARCO文書を用いて実験を行い,そのメカニズムの課題を明らかにした。
関連論文リスト
- ColBERT's [MASK]-based Query Augmentation: Effects of Quadrupling the Query Input Length [3.192109204993465]
我々は、[MASK]トークンが非[MASK]クエリ項を重み付けしていることを示し、他のトークンよりも特定のトークンを強調する。
次に,[MASK]トークンの数を0から4倍に変化させる効果について検討した。
論文 参考訳(メタデータ) (2024-08-24T21:22:15Z) - Efficient Document Ranking with Learnable Late Interactions [73.41976017860006]
クロスエンコーダ(CE)とデュアルエンコーダ(DE)モデルは,情報検索におけるクエリドキュメント関連性の2つの基本的なアプローチである。
関連性を予測するため、CEモデルは共同クエリドキュメントの埋め込みを使用し、DEモデルは分解クエリとドキュメントの埋め込みを維持している。
近年、DEM構造と軽量スコアラを用いて、より好ましいレイテンシ品質のトレードオフを実現するために、遅延相互作用モデルが提案されている。
論文 参考訳(メタデータ) (2024-06-25T22:50:48Z) - Breaking the Token Barrier: Chunking and Convolution for Efficient Long
Text Classification with BERT [0.0]
変換器ベースのモデル、特にBERTは様々なNLPタスクの研究を推進している。
BERTモデルは512トークンの最大トークン制限に制限されているため、長い入力で実際に適用するのは簡単ではない。
本稿では,任意の事前学習したモデルを任意に長文で推論できるような,比較的単純なBanilla BERTアーキテクチャであるChunkBERTを提案する。
論文 参考訳(メタデータ) (2023-10-31T15:41:08Z) - Introducing Neural Bag of Whole-Words with ColBERTer: Contextualized
Late Interactions using Enhanced Reduction [10.749746283569847]
ColBERTerは、文脈化された遅延相互作用(ColBERT)と強化されたリダクションを用いたニューラル検索モデルである。
マルチベクタコンポーネントのために、ColBERTerは、各ドキュメントの用語に対するユニークな全ワード表現を学習することで、ドキュメントごとの格納数を減らす。
MS MARCOとTREC-DLのコレクションの結果から、ColBERTerは最大2.5倍のストレージフットプリントを削減できるが、有効性は維持できる。
論文 参考訳(メタデータ) (2022-03-24T14:28:07Z) - One-shot Key Information Extraction from Document with Deep Partial
Graph Matching [60.48651298832829]
ドキュメントからキー情報抽出(KIE)は、多くの産業シナリオにおいて効率、生産性、セキュリティを改善する。
KIEタスクのための既存の教師付き学習手法は、多数のラベル付きサンプルを供給し、異なる種類の文書の別々のモデルを学ぶ必要がある。
部分グラフマッチングを用いたワンショットKIEのためのディープエンド・ツー・エンド・トレーニング可能なネットワークを提案する。
論文 参考訳(メタデータ) (2021-09-26T07:45:53Z) - An Interpretable End-to-end Fine-tuning Approach for Long Clinical Text [72.62848911347466]
EHRにおける非構造化臨床テキストには、意思決定支援、トライアルマッチング、振り返り研究を含むアプリケーションにとって重要な情報が含まれている。
最近の研究は、これらのモデルが他のNLPドメインにおける最先端の性能を考慮し、BERTベースのモデルを臨床情報抽出およびテキスト分類に応用している。
本稿では,SnipBERTという新しい微調整手法を提案する。SnipBERTは全音符を使用する代わりに,重要なスニペットを識別し,階層的に切り刻まれたBERTベースのモデルに供給する。
論文 参考訳(メタデータ) (2020-11-12T17:14:32Z) - Distilling Dense Representations for Ranking using Tightly-Coupled
Teachers [52.85472936277762]
我々は最近提案された後期相互作用ColBERTモデルを改善するために知識蒸留を適用した。
ColBERT の表現型 MaxSim 演算子から知識を抽出し、関連度スコアを単純な点積に変換する。
提案手法はクエリ待ち時間を改善し,ColBERTの面倒なストレージ要件を大幅に削減する。
論文 参考訳(メタデータ) (2020-10-22T02:26:01Z) - Students Need More Attention: BERT-based AttentionModel for Small Data
with Application to AutomaticPatient Message Triage [65.7062363323781]
BioBERT (Bidirectional Representations from Transformers for Biomedical Text Mining) に基づく新しいフレームワークを提案する。
LESA-BERTと呼ぶBERTの各層にラベル埋め込みを導入し、(ii)LESA-BERTを小さな変種に蒸留することにより、小さなデータセットで作業する際のオーバーフィッティングとモデルサイズを低減することを目指す。
アプリケーションとして,本フレームワークを用いて,患者ポータルメッセージトリアージのモデルを構築し,メッセージの緊急度を非緊急度,中度度,緊急度という3つのカテゴリに分類する。
論文 参考訳(メタデータ) (2020-06-22T03:39:00Z) - DeeBERT: Dynamic Early Exiting for Accelerating BERT Inference [69.93692147242284]
BERTのような大規模事前訓練型言語モデルは、NLPアプリケーションに大幅な改善をもたらした。
本稿では, BERT推論を高速化するために, 単純だが効果的な手法であるDeeBERTを提案する。
実験の結果、DeeBERTはモデル品質の低下を最小限に抑えながら、最大40%の推論時間を節約できることがわかった。
論文 参考訳(メタデータ) (2020-04-27T17:58:05Z) - ColBERT: Efficient and Effective Passage Search via Contextualized Late
Interaction over BERT [24.288824715337483]
ColBERTは、ディープLMを効率的な検索に適応させる新しいランキングモデルである。
我々は最近の2つの経路探索データセットを用いてColBERTを広範囲に評価した。
論文 参考訳(メタデータ) (2020-04-27T14:21:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。