論文の概要: Parameter-Efficient Prompt Tuning Makes Generalized and Calibrated
Neural Text Retrievers
- arxiv url: http://arxiv.org/abs/2207.07087v1
- Date: Thu, 14 Jul 2022 17:40:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-15 15:24:38.382598
- Title: Parameter-Efficient Prompt Tuning Makes Generalized and Calibrated
Neural Text Retrievers
- Title(参考訳): パラメータ効率の良いプロンプトチューニングによる一般化と校正型ニューラルテキスト検索
- Authors: Weng Lam Tam, Xiao Liu, Kaixuan Ji, Lilong Xue, Xingjian Zhang, Yuxiao
Dong, Jiahua Liu, Maodi Hu, Jie Tang
- Abstract要約: ドメイン内、ドメイン間、およびトピック間におけるテキスト検索のためのパラメータ効率の高いプロンプトチューニングを導入する。
この戦略はパラメータ非効率性と弱い一般化可能性という2つの問題を緩和できることを示す。
87のトピックで18Kのクエリ-resultsペアを用いて,学術検索データセットをキュレートし,リリースする。
- 参考スコア(独自算出の注目度): 22.45711099563065
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Prompt tuning attempts to update few task-specific parameters in pre-trained
models. It has achieved comparable performance to fine-tuning of the full
parameter set on both language understanding and generation tasks. In this
work, we study the problem of prompt tuning for neural text retrievers. We
introduce parameter-efficient prompt tuning for text retrieval across
in-domain, cross-domain, and cross-topic settings. Through an extensive
analysis, we show that the strategy can mitigate the two issues --
parameter-inefficiency and weak generalizability -- faced by fine-tuning based
retrieval methods. Notably, it can significantly improve the out-of-domain
zero-shot generalization of the retrieval models. By updating only 0.1% of the
model parameters, the prompt tuning strategy can help retrieval models achieve
better generalization performance than traditional methods in which all
parameters are updated. Finally, to facilitate research on retrievers'
cross-topic generalizability, we curate and release an academic retrieval
dataset with 18K query-results pairs in 87 topics, making it the largest
topic-specific one to date.
- Abstract(参考訳): プロンプトチューニングは、事前トレーニングされたモデルでタスク固有のパラメータをいくつか更新しようとする。
言語理解と生成タスクの両方のパラメータセットの微調整と同等のパフォーマンスを達成している。
そこで本研究では,ニューラルテキスト検索における即時チューニングの問題について検討する。
本稿では,テキスト検索のためのパラメータ効率のよいプロンプトチューニングを提案する。
この戦略は, 微調整に基づく検索手法により, パラメータ非効率性と弱一般化性の2つの問題を緩和できることを示す。
特に、検索モデルのドメイン外ゼロショット一般化を大幅に改善することができる。
モデルパラメータの0.1%だけを更新することで、プロンプトチューニング戦略は、すべてのパラメータが更新される従来の方法よりも優れた一般化性能を達成するのに役立つ。
最後に,検索者のクロストピックな一般化可能性に関する研究を容易にするために,87のトピックで18kのクエリー結果ペアを用いた学術検索データセットをキュレートし,公開する。
関連論文リスト
- Generative Query Reformulation Using Ensemble Prompting, Document Fusion, and Relevance Feedback [8.661419320202787]
GenQREnsembleとGenQRFusionはゼロショット命令のパラフレーズを利用して複数のキーワードセットを生成し、検索性能を向上させる。
検索前設定ではnDCG@10で最大18%,検索後設定では9%の精度で検索効率を向上できることを示す。
論文 参考訳(メタデータ) (2024-05-27T21:03:26Z) - RIFF: Learning to Rephrase Inputs for Few-shot Fine-tuning of Language Models [4.085425430499285]
本稿では,パラメータ効率のよい微調整手法と合わせて,元のタスクの入力テキストを変更することの影響について検討する。
入力テキストの書き直しを効果的に行うため,最大辺縁類似度を目標とした数発のパラフレーズモデルを訓練する。
本研究では, パラメータ効率のよい微調整だけで達成できることを超えて, 列車におけるパラフレーズとテスト時間によるデータ豊か化により, 性能が向上することを示す。
論文 参考訳(メタデータ) (2024-03-04T17:58:09Z) - SSP: Self-Supervised Post-training for Conversational Search [63.28684982954115]
本稿では,対話型検索モデルを効率的に初期化するための3つの自己教師型タスクを備えた学習後パラダイムであるフルモデル(モデル)を提案する。
提案手法の有効性を検証するために,CAsT-19 と CAsT-20 の2つのベンチマークデータセットを用いて,会話検索タスクにモデルにより訓練後の会話エンコーダを適用した。
論文 参考訳(メタデータ) (2023-07-02T13:36:36Z) - How Does Generative Retrieval Scale to Millions of Passages? [68.98628807288972]
各種コーパス尺度における生成的検索手法の実証的研究を行った。
我々は8.8Mパスのコーパスで数百万のパスに生成検索をスケールし、モデルサイズを最大11Bパラメータまで評価する。
生成的検索は、小さなコーパス上の最先端のデュアルエンコーダと競合するが、数百万のパスへのスケーリングは依然として重要で未解決の課題である。
論文 参考訳(メタデータ) (2023-05-19T17:33:38Z) - Parameter-efficient Tuning of Large-scale Multimodal Foundation Model [68.24510810095802]
我々はこれらの課題を克服するために、クロスモーダル転送(Aurora)のための優雅なプロンプトフレームワークを提案する。
既存のアーキテクチャの冗長性を考慮すると、まずモード近似を用いて0.1Mのトレーニング可能なパラメータを生成し、マルチモーダルプロンプトチューニングを実装する。
6つのクロスモーダルベンチマークの徹底的な評価は、最先端のベンチマークを上回るだけでなく、完全な微調整アプローチよりも優れていることを示している。
論文 参考訳(メタデータ) (2023-05-15T06:40:56Z) - Evaluating Parameter-Efficient Transfer Learning Approaches on SURE
Benchmark for Speech Understanding [40.27182770995891]
ファインチューニングは、事前訓練されたモデルからのトランスファー学習のデフォルトアルゴリズムとして広く使われている。
本稿では,様々な音声処理タスクに対するパラメータ効率学習のための音声不確定評価(SURE)ベンチマークを提案する。
論文 参考訳(メタデータ) (2023-03-02T08:57:33Z) - Unified Vision and Language Prompt Learning [86.1530128487077]
本稿では,テキストプロンプトチューニングと視覚的プロンプトチューニングという,2つの代表的プロンプトチューニング手法に関する体系的研究を行う。
主要な発見は、テキストプロンプトチューニングは、高いクラス内の視覚的ばらつきを持つデータでは失敗する一方で、視覚的プロンプトチューニングはクラス間のばらつきを低く扱えないことである。
両世界から最高のものを組み合わせるために、我々はUnified Prompt Tuning (UPT)と呼ばれる単純なアプローチを提案する。
論文 参考訳(メタデータ) (2022-10-13T17:50:24Z) - Improving Passage Retrieval with Zero-Shot Question Generation [109.11542468380331]
オープンな質問応答における経路検索を改善するための,シンプルで効果的な再ランク付け手法を提案する。
再ランカは、学習済み言語モデルを用いて、検索されたパスに条件付けられた入力質問の確率を算出するゼロショット質問生成モデルを用いて、検索されたパスを再スコアする。
論文 参考訳(メタデータ) (2022-04-15T14:51:41Z) - Discourse-Aware Prompt Design for Text Generation [13.835916386769474]
そこで本研究では, 簡易かつ効率的な手法により, プロンプトベースの条件付きテキスト生成を改善することができることを示す。
まず、人文テキストの高レベルな談話構造を、プレフィックスパラメータのテクスチャ階層的ブロッキングでモデル化できることを示す。
第2に,ネットワークの各レイヤにおけるプレフィックスパラメータのテキスト分割間隔を導入し,ソフトマックス関数のスパース変換を学習することで,スパースプレフィックスチューニングを提案する。
論文 参考訳(メタデータ) (2021-12-10T18:15:44Z) - Prefix-Tuning: Optimizing Continuous Prompts for Generation [85.6357778621526]
微調整は、大規模な事前訓練された言語モデルを使用して下流のタスクを実行する事実上の方法です。
自然言語生成タスクの微調整に代わる軽量なプレフィックスチューニングを提案する。
パラメータの0.1%しか学習しないことで、プレフィックスチューニングは完全なデータ設定で同等のパフォーマンスを得る。
論文 参考訳(メタデータ) (2021-01-01T08:00:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。