論文の概要: Leveraging LLMs for Utility-Focused Annotation: Reducing Manual Effort for Retrieval and RAG
- arxiv url: http://arxiv.org/abs/2504.05220v2
- Date: Tue, 08 Apr 2025 02:11:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-09 10:05:14.106776
- Title: Leveraging LLMs for Utility-Focused Annotation: Reducing Manual Effort for Retrieval and RAG
- Title(参考訳): ユーティリティ指向アノテーションのためのLCMの活用:検索とRAGのための手作業の削減
- Authors: Hengran Zhang, Minghao Tang, Keping Bi, Jiafeng Guo, Shihao Liu, Daiting Shi, Dawei Yin, Xueqi Cheng,
- Abstract要約: 本研究では,Large Language Models (LLMs) が,検索モデルのトレーニングにおいて,人間のアノテーションを効果的に置き換えられるかどうかを検討する。
提案実験により,実用性を重視したアノテーションを訓練したレトリバーは,ドメイン外設定でトレーニングしたアノテーションを有意に上回った。
20%の人間アノテーションでトレーニングされたデータだけで、ユーティリティ中心のアノテーションでトレーニングされたレトリバーが、完全に人間のアノテーションでトレーニングされたモデルのパフォーマンスにマッチする。
- 参考スコア(独自算出の注目度): 69.51637252264277
- License:
- Abstract: Retrieval models typically rely on costly human-labeled query-document relevance annotations for training and evaluation. To reduce this cost and leverage the potential of Large Language Models (LLMs) in relevance judgments, we aim to explore whether LLM-generated annotations can effectively replace human annotations in training retrieval models. Retrieval usually emphasizes relevance, which indicates "topic-relatedness" of a document to a query, while in RAG, the value of a document (or utility) depends on how it contributes to answer generation. Recognizing this mismatch, some researchers use LLM performance on downstream tasks with documents as labels, but this approach requires manual answers for specific tasks, leading to high costs and limited generalization. In another line of work, prompting LLMs to select useful documents as RAG references eliminates the need for human annotation and is not task-specific. If we leverage LLMs' utility judgments to annotate retrieval data, we may retain cross-task generalization without human annotation in large-scale corpora. Therefore, we investigate utility-focused annotation via LLMs for large-scale retriever training data across both in-domain and out-of-domain settings on the retrieval and RAG tasks. To reduce the impact of low-quality positives labeled by LLMs, we design a novel loss function, i.e., Disj-InfoNCE. Our experiments reveal that: (1) Retrievers trained on utility-focused annotations significantly outperform those trained on human annotations in the out-of-domain setting on both tasks, demonstrating superior generalization capabilities. (2) LLM annotation does not replace human annotation in the in-domain setting. However, incorporating just 20% human-annotated data enables retrievers trained with utility-focused annotations to match the performance of models trained entirely with human annotations.
- Abstract(参考訳): 検索モデルは典型的には、トレーニングと評価に人為的にラベル付けされたクエリドキュメント関連アノテーションを頼りにしている。
このコストを削減し、関連判断におけるLarge Language Models (LLMs) の可能性を活用するために、LLM生成アノテーションが学習モデルにおける人間のアノテーションを効果的に置き換えられるかどうかを検討することを目的とする。
Retrievalは通常、クエリに対するドキュメントの"トピック関連性"を示す関連性を強調するが、RAGでは、ドキュメント(またはユーティリティ)の価値は、それが応答生成にどのように貢献するかに依存する。
このミスマッチを認識して、文書をラベルとして下流タスクでLLMのパフォーマンスを使用する研究者もいるが、このアプローチでは特定のタスクに対して手動で回答する必要があるため、コストが高く、一般化が限られている。
別の作業では、RAG参照としてLCMが有用なドキュメントを選択するように促すことで、人間のアノテーションは不要になり、タスク固有のものではない。
LLMの効用判断を利用してアノテート検索データを利用する場合、大規模なコーパスにおいて人間のアノテーションを使わずにクロスタスクの一般化を維持することができる。
そこで本研究では,検索タスクとRAGタスクにおいて,ドメイン内およびドメイン外の両方にまたがる大規模検索データに対して,LCMによるユーティリティ重視アノテーションについて検討する。
LLMによってラベル付けされた低品質な正の効果を低減するため、新しい損失関数、すなわちDisj-InfoNCEを設計する。
1)実用性を重視したアノテーションで訓練されたレトリバーは、両方のタスクにおけるドメイン外の設定において、人間のアノテーションで訓練されたレトリバーを著しく上回り、より優れた一般化能力を示す。
2) LLMアノテーションは、ドメイン内での人間のアノテーションを置き換えるものではない。
しかしながら、わずか20%の人間アノテーション付きデータを組み込むことで、ユーティリティ中心のアノテーションでトレーニングされた検索者が、完全に人間のアノテーションでトレーニングされたモデルのパフォーマンスにマッチすることができる。
関連論文リスト
- Enhancing RAG with Active Learning on Conversation Records: Reject Incapables and Answer Capables [17.76687504479359]
Retrieval-augmented Generation (RAG)は、大規模言語モデル(LLM)における外部知識の活用と幻覚の低減のための重要な手法である。
本稿では,LLMを用いた多種多様な会話を用いて高品質なデータセットを構築することを提案する。
本稿では、アクティブラーニングを用いて、アノテーションに最も適した会話サンプルを選択するAL4RAGを紹介する。
論文 参考訳(メタデータ) (2025-02-13T08:42:29Z) - Invar-RAG: Invariant LLM-aligned Retrieval for Better Generation [43.630437906898635]
Invar-RAGと呼ばれる2段階ファインチューニングアーキテクチャを提案する。
検索段階では、LORAに基づく表現学習を統合してLLMベースの検索器を構築する。
生成段階では、抽出した情報に基づいて回答を生成する際のLCM精度を向上させるための精細調整法が用いられる。
論文 参考訳(メタデータ) (2024-11-11T14:25:37Z) - DIRAS: Efficient LLM Annotation of Document Relevance in Retrieval Augmented Generation [37.823892101215684]
ドメイン固有のクエリは通常、浅いセマンティックな関連性を超えて、関連性のニュアンス定義を必要とする。
人間またはGPT-4アノテーションは費用がかかり、全ての(クエリ、ドキュメント)ペアをカバーできない。
DIRAS (Domain-specific Information Retrieval with Scalability) は手動アノテーションのないスキーマである。
論文 参考訳(メタデータ) (2024-06-20T10:04:09Z) - PromptReps: Prompting Large Language Models to Generate Dense and Sparse Representations for Zero-Shot Document Retrieval [76.50690734636477]
本稿では,PmptRepsを提案する。このPmptRepsは,トレーニングを必要とせず,コーパス全体から検索できる機能である。
検索システムは、高密度テキスト埋め込みとスパースバッグ・オブ・ワード表現の両方を利用する。
論文 参考訳(メタデータ) (2024-04-29T04:51:30Z) - LLatrieval: LLM-Verified Retrieval for Verifiable Generation [67.93134176912477]
検証可能な生成は、大きな言語モデル(LLM)がドキュメントをサポートするテキストを生成することを目的としている。
本稿では,LLatrieval (Large Language Model Verified Retrieval)を提案する。
実験により、LLatrievalは幅広いベースラインを著しく上回り、最先端の結果が得られることが示された。
論文 参考訳(メタデータ) (2023-11-14T01:38:02Z) - CoAnnotating: Uncertainty-Guided Work Allocation between Human and Large
Language Models for Data Annotation [94.59630161324013]
本稿では,非構造化テキストの大規模共同アノテーションのための新しいパラダイムであるCoAnnotatingを提案する。
我々の実証研究は、CoAnnotatingが、異なるデータセット上の結果から作業を割り当てる効果的な手段であることを示し、ランダムベースラインよりも最大21%のパフォーマンス改善を実現している。
論文 参考訳(メタデータ) (2023-10-24T08:56:49Z) - Automated Annotation with Generative AI Requires Validation [0.0]
生成型大規模言語モデル(LLM)は、テキストアノテーションの手順を増強するための強力なツールである。
LLMのアノテーションポテンシャルを原則的かつ効率的な方法で活用するためのワークフローを概説する。
テキストアノテーションのLLM性能は有望であるが,データセットとアノテーションの型の両方に高い関連性があることが判明した。
論文 参考訳(メタデータ) (2023-05-31T20:50:45Z) - Query Rewriting for Retrieval-Augmented Large Language Models [139.242907155883]
大規模言語モデル(LLM)は、検索対象のパイプラインで強力なブラックボックスリーダーを動作させる。
この作業では、検索拡張LDMに対する以前の検索テーマ読み込みの代わりに、新しいフレームワークであるRewrite-Retrieve-Readを導入する。
論文 参考訳(メタデータ) (2023-05-23T17:27:50Z) - Active Learning for Abstractive Text Summarization [50.79416783266641]
本稿では,抽象テキスト要約におけるアクティブラーニングのための最初の効果的なクエリ戦略を提案する。
ALアノテーションにおける私たちの戦略は、ROUGEと一貫性スコアの点からモデル性能を向上させるのに役立ちます。
論文 参考訳(メタデータ) (2023-01-09T10:33:14Z) - Assisted Text Annotation Using Active Learning to Achieve High Quality
with Little Effort [9.379650501033465]
研究者は、手動の注釈だけで、大規模で高品質な注釈付きデータセットを作成できるツールを提案する。
我々は、アクティブラーニング(AL)アプローチと事前訓練された言語モデルを組み合わせて、アノテーションカテゴリを半自動で識別する。
予備的な結果から,ALを用いることで,複雑なフレームや微妙なフレームを正しく分類するアノテーションの数が大幅に削減されることがわかった。
論文 参考訳(メタデータ) (2021-12-15T13:14:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。