論文の概要: INTERS: Unlocking the Power of Large Language Models in Search with
Instruction Tuning
- arxiv url: http://arxiv.org/abs/2401.06532v1
- Date: Fri, 12 Jan 2024 12:10:28 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-15 19:31:59.862230
- Title: INTERS: Unlocking the Power of Large Language Models in Search with
Instruction Tuning
- Title(参考訳): inters: インストラクションチューニングによる検索における大規模言語モデルのパワーアンロック
- Authors: Yutao Zhu, Peitian Zhang, Chenghao Zhang, Yifei Chen, Binyu Xie,
Zhicheng Dou, Zheng Liu, and Ji-Rong Wen
- Abstract要約: 大規模言語モデル(LLM)は、様々な自然言語処理タスクにおいて印象的な機能を示している。
情報検索(IR)タスクへのそれらの適用は、自然言語における多くのIR固有の概念の頻繁な発生のため、いまだに困難である。
我々は3つの基本的なIRカテゴリにまたがる21のタスクを含む新しいインストラクションチューニングデータセット、InterSを紹介した。
- 参考スコア(独自算出の注目度): 59.07490387145391
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models (LLMs) have demonstrated impressive capabilities in
various natural language processing tasks. Despite this, their application to
information retrieval (IR) tasks is still challenging due to the infrequent
occurrence of many IR-specific concepts in natural language. While prompt-based
methods can provide task descriptions to LLMs, they often fall short in
facilitating comprehensive understanding and execution of IR tasks, thereby
limiting LLMs' applicability. To address this gap, in this work, we explore the
potential of instruction tuning to enhance LLMs' proficiency in IR tasks. We
introduce a novel instruction tuning dataset, INTERS, encompassing 21 tasks
across three fundamental IR categories: query understanding, document
understanding, and query-document relationship understanding. The data are
derived from 43 distinct datasets with manually written templates. Our
empirical results reveal that INTERS significantly boosts the performance of
various publicly available LLMs, such as LLaMA, Mistral, and Phi, in
search-related tasks. Furthermore, we conduct a comprehensive analysis to
ascertain the effects of base model selection, instruction design, volume of
instructions, and task variety on performance. We make our dataset and the
models fine-tuned on it publicly accessible at https://github.com/DaoD/INTERS.
- Abstract(参考訳): 大規模言語モデル(llm)は、様々な自然言語処理タスクにおいて印象的な能力を示している。
それにもかかわらず、情報検索(IR)タスクへの適用は、自然言語における多くのIR固有の概念が頻繁に発生するため、依然として困難である。
プロンプトベースの手法は LLM にタスク記述を提供することができるが、IR タスクの包括的な理解と実行を容易化することで LLM の適用性を制限することがしばしばある。
このギャップに対処するため、本研究では、IRタスクにおけるLLMの習熟度を高めるための命令チューニングの可能性を探る。
我々は,クエリ理解,文書理解,クエリ-ドキュメント関係理解という3つの基本的なirカテゴリにわたる21のタスクを包含する,新しい命令チューニングデータセットであるintersを導入する。
データは、手書きのテンプレートを持つ43の異なるデータセットから導出される。
実験の結果, InterS はLLaMA, Mistral, Phi などの公開 LLM の検索タスクにおける性能を著しく向上させることがわかった。
さらに,ベースモデル選択,命令設計,命令量,タスク種別が性能に与える影響を確認するため,総合的な分析を行った。
私たちはデータセットとモデルをhttps://github.com/DaoD/INTERS.comで公開して公開しています。
関連論文リスト
- Layer by Layer: Uncovering Where Multi-Task Learning Happens in Instruction-Tuned Large Language Models [22.676688441884465]
タスクの多種多様な配列で訓練済みの大規模言語モデル(LLM)を微調整することが、モデル構築の一般的なアプローチとなっている。
本研究では,事前学習したLLMに符号化されたタスク固有情報と,その表現に対する指導指導の効果について検討する。
論文 参考訳(メタデータ) (2024-10-25T23:38:28Z) - RUIE: Retrieval-based Unified Information Extraction using Large Language Model [6.788855739199981]
統一された情報抽出は、単一のモデルまたはフレームワークを使用して全ての情報抽出タスクを完了することを目的としている。
本稿では,テキスト内学習を活用して迅速な一般化を実現するフレームワークRUIE(Retrieval-based Unified Information extract)を提案する。
8つのホールドアウトデータセットの実験結果から、未確認タスクを一般化するRUIEの有効性が示された。
論文 参考訳(メタデータ) (2024-09-18T03:20:04Z) - SELF-GUIDE: Better Task-Specific Instruction Following via Self-Synthetic Finetuning [70.21358720599821]
大規模言語モデル(LLM)は、適切な自然言語プロンプトを提供する際に、多様なタスクを解決するという約束を持っている。
学生LLMからタスク固有の入出力ペアを合成する多段階メカニズムであるSELF-GUIDEを提案する。
ベンチマークの指標から,分類タスクに約15%,生成タスクに18%の絶対的な改善を報告した。
論文 参考訳(メタデータ) (2024-07-16T04:41:58Z) - If LLM Is the Wizard, Then Code Is the Wand: A Survey on How Code
Empowers Large Language Models to Serve as Intelligent Agents [81.60906807941188]
大型言語モデル(LLM)は、自然言語と形式言語(コード)の組み合わせに基づいて訓練される
コードは、標準構文、論理一貫性、抽象化、モジュール性を備えた高レベルの目標を実行可能なステップに変換する。
論文 参考訳(メタデータ) (2024-01-01T16:51:20Z) - Helping Language Models Learn More: Multi-dimensional Task Prompt for
Few-shot Tuning [36.14688633670085]
本稿では,タスク関連オブジェクト,要約,タスク記述情報に基づく多次元タスクプロンプト学習手法MTPromptを提案する。
提案するMTPromptは,適切なプロンプトを自動構築し,検索することで,いくつかのサンプル設定と5つの異なるデータセットに対して最適な結果が得られる。
論文 参考訳(メタデータ) (2023-12-13T10:00:44Z) - Can Large Language Models Understand Real-World Complex Instructions? [54.86632921036983]
大型言語モデル(LLM)は人間の指示を理解することができるが、複雑な命令には耐えられない。
既存のベンチマークでは、LLMが複雑な命令を理解する能力を評価するには不十分である。
複雑な命令を体系的に追従するLSMの能力を評価するためのベンチマークであるCellOを提案する。
論文 参考訳(メタデータ) (2023-09-17T04:18:39Z) - OverPrompt: Enhancing ChatGPT through Efficient In-Context Learning [49.38867353135258]
複数のタスク入力を処理するために,LLMのコンテキスト内学習機能を活用したOverPromptを提案する。
本実験により,OverPromptはタスク性能を著しく損なうことなく,コスト効率の良いゼロショット分類を実現することができることがわかった。
論文 参考訳(メタデータ) (2023-05-24T10:08:04Z) - ICL-D3IE: In-Context Learning with Diverse Demonstrations Updating for
Document Information Extraction [56.790794611002106]
大規模言語モデル(LLM)は、様々な自然言語処理(NLP)タスクにおいて、文脈内学習による顕著な結果を示している。
ICL-D3IEと呼ばれるシンプルだが効果的なテキスト内学習フレームワークを提案する。
具体的には、ハードトレーニング文書から最も困難で独特なセグメントをハードデモとして抽出する。
論文 参考訳(メタデータ) (2023-03-09T06:24:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。