論文の概要: Attribution, Citation, and Quotation: A Survey of Evidence-based Text Generation with Large Language Models
- arxiv url: http://arxiv.org/abs/2508.15396v1
- Date: Thu, 21 Aug 2025 09:36:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-22 16:26:46.267482
- Title: Attribution, Citation, and Quotation: A Survey of Evidence-based Text Generation with Large Language Models
- Title(参考訳): 帰属・引用・引用:大規模言語モデルを用いたエビデンスに基づくテキスト生成に関する調査
- Authors: Tobias Schreieder, Tim Schopf, Michael Färber,
- Abstract要約: 大規模言語モデルを用いたエビデンスベースのテキスト生成の統一分類法を導入する。
7つの重要次元にわたる評価指標について検討した。
オープンな課題を強調し、将来的な作業に向けた有望な方向性を概説する。
- 参考スコア(独自算出の注目度): 9.664217498808338
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The increasing adoption of large language models (LLMs) has been accompanied by growing concerns regarding their reliability and trustworthiness. As a result, a growing body of research focuses on evidence-based text generation with LLMs, aiming to link model outputs to supporting evidence to ensure traceability and verifiability. However, the field is fragmented due to inconsistent terminology, isolated evaluation practices, and a lack of unified benchmarks. To bridge this gap, we systematically analyze 134 papers, introduce a unified taxonomy of evidence-based text generation with LLMs, and investigate 300 evaluation metrics across seven key dimensions. Thereby, we focus on approaches that use citations, attribution, or quotations for evidence-based text generation. Building on this, we examine the distinctive characteristics and representative methods in the field. Finally, we highlight open challenges and outline promising directions for future work.
- Abstract(参考訳): 大規模言語モデル(LLM)の採用が増加し、信頼性と信頼性に関する懸念が高まっている。
その結果、LLMを用いたエビデンスベースのテキスト生成に焦点が当てられ、モデル出力とエビデンスをリンクしてトレーサビリティと検証性を保証することを目指している。
しかし、この分野は、矛盾した用語、独立した評価プラクティス、統一されたベンチマークの欠如によって断片化されている。
このギャップを埋めるために、134の論文を体系的に分析し、LCMを用いてエビデンスベースのテキスト生成の統一分類を導入し、7つの重要次元にわたる300評価指標を調査した。
そこで我々は,エビデンスベースのテキスト生成のための引用,帰属,引用を利用するアプローチに焦点をあてる。
そこで本研究では,この分野における特徴的特徴と代表的手法について検討する。
最後に、オープンな課題を強調し、将来の仕事の有望な方向性を概説する。
関連論文リスト
- TROVE: A Challenge for Fine-Grained Text Provenance via Source Sentence Tracing and Relationship Classification [32.958143806547234]
テキストpROVEnance(TROVE)チャレンジを導入し、ターゲットテキストの各文を特定のソース文にトレースする。
TROVEをベンチマークするために、11の多様なシナリオをカバーする3つの公開データセットを活用してデータセットを構築します。
我々は、直接的プロンプトおよび検索拡張パラダイムの下で11個のLLMを評価する。
論文 参考訳(メタデータ) (2025-03-19T15:09:39Z) - Unstructured Evidence Attribution for Long Context Query Focused Summarization [46.713307974729844]
大規模言語モデル(LLM)は、ユーザクエリが与えられた場合、非常に長いコンテキストからコヒーレントな要約を生成することができる。
既存のシステムがどのようにして、そのコンテキストから構造化されていない証拠を生成し、適切に引用するのに苦労しているかを示す。
論文 参考訳(メタデータ) (2025-02-20T09:57:42Z) - Think&Cite: Improving Attributed Text Generation with Self-Guided Tree Search and Progress Reward Modeling [63.98194996746229]
大型言語モデル(LLM)は幻覚を起こし、事実的に誤った情報を生み出す傾向にある。
我々はThink&Citeと呼ばれる新しいフレームワークを提案し、検索と統合された多段階推論問題として属性付きテキスト生成を定式化する。
論文 参考訳(メタデータ) (2024-12-19T13:55:48Z) - A Bayesian Approach to Harnessing the Power of LLMs in Authorship Attribution [57.309390098903]
著者の属性は、文書の起源または著者を特定することを目的としている。
大きな言語モデル(LLM)とその深い推論能力と長距離テキストアソシエーションを維持する能力は、有望な代替手段を提供する。
IMDbおよびブログデータセットを用いた結果, 著者10名を対象に, 著者1名に対して, 85%の精度が得られた。
論文 参考訳(メタデータ) (2024-10-29T04:14:23Z) - FarFetched: Entity-centric Reasoning and Claim Validation for the Greek Language based on Textually Represented Environments [0.3874856507026475]
複数のオンラインニュースソースから得られた集合的証拠に基づいて,自動クレーム検証の必要性に対処する。
イベント、アクション、ステートメント間の遅延接続を明らかにするエンティティ中心の推論フレームワークを導入します。
提案手法は,低リソース言語に対する自動クレーム検証のギャップを埋めようとしている。
論文 参考訳(メタデータ) (2024-07-13T13:30:20Z) - Exploring Precision and Recall to assess the quality and diversity of LLMs [82.21278402856079]
我々はtextscLlama-2 や textscMistral のような大規模言語モデル (LLM) のための新しい評価フレームワークを提案する。
このアプローチにより、コーパスの整合を必要とせず、生成したテキストの品質と多様性を微妙に評価できる。
論文 参考訳(メタデータ) (2024-02-16T13:53:26Z) - How Well Do Text Embedding Models Understand Syntax? [50.440590035493074]
テキスト埋め込みモデルが幅広い構文的文脈にまたがって一般化する能力は、まだ解明されていない。
その結果,既存のテキスト埋め込みモデルは,これらの構文的理解課題に十分対応していないことが明らかとなった。
多様な構文シナリオにおけるテキスト埋め込みモデルの一般化能力を高めるための戦略を提案する。
論文 参考訳(メタデータ) (2023-11-14T08:51:00Z) - Evaluation of Faithfulness Using the Longest Supported Subsequence [52.27522262537075]
本稿では,文脈によって支持される請求項の最長不連続性を計算し,機械生成テキストの忠実さを評価する新しい手法を提案する。
新しい人間アノテーション付きデータセットを使用して、モデルを微調整してLongest Supported Subsequence(LSS)を生成する。
提案手法は,我々のデータセットの忠実度に対する最先端のメトリクスよりも18%向上していることを示す。
論文 参考訳(メタデータ) (2023-08-23T14:18:44Z) - Enabling Large Language Models to Generate Text with Citations [37.64884969997378]
大規模言語モデル (LLM) は情報検索のツールとして広く使われている。
我々の目的は、LLMが引用文を生成できるようにし、その事実の正しさと妥当性を向上させることである。
自動LLMのCitation Evaluationのための最初のベンチマークであるALCEを提案する。
論文 参考訳(メタデータ) (2023-05-24T01:53:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。