論文の概要: Attribution Gradients: Incrementally Unfolding Citations for Critical Examination of Attributed AI Answers
- arxiv url: http://arxiv.org/abs/2510.00361v1
- Date: Wed, 01 Oct 2025 00:07:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-03 16:59:20.296345
- Title: Attribution Gradients: Incrementally Unfolding Citations for Critical Examination of Attributed AI Answers
- Title(参考訳): 属性のグラディエンス:AI回答に対する批判的評価のための漸次展開
- Authors: Hita Kambhamettu, Alyssa Hwang, Philippe Laban, Andrew Head,
- Abstract要約: 属性勾配を情報源属性検証の解として提示する。
ユーザは、回答の文をそのクレームに分解することができる。
各クレームに対して、ユーザはソースから抽出されたサポートや矛盾した抜粋を見ることができる。
これらの属性勾配の特徴は、応答、クレーム、抽出、コンテキスト間の同時相互接続を促進する。
- 参考スコア(独自算出の注目度): 25.15818827932554
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: AI question answering systems increasingly generate responses with attributions to sources. However, the task of verifying the actual content of these attributions is in most cases impractical. In this paper, we present attribution gradients as a solution. Attribution gradients provide integrated, incremental affordances for diving into an attributed passage. A user can decompose a sentence of an answer into its claims. For each claim, the user can view supporting and contradictory excerpts mined from sources. Those excerpts serve as clickable conduits into the source (in our application, scientific papers). When evidence itself contains more citations, the UI unpacks the evidence into excerpts from the cited sources. These features of attribution gradients facilitate concurrent interconnections among answer, claim, excerpt, and context. In a usability study, we observed greater engagement with sources and richer revision in a task where participants revised an attributed AI answer with attribution gradients and a baseline.
- Abstract(参考訳): AI質問応答システムは、ソースへの属性による応答をますます生成します。
しかし、これらの属性の実際の内容を検証するタスクは、多くの場合、現実的ではない。
本稿では,帰属勾配を解として提示する。
属性勾配は、属性のある通路に飛び込むための統合的で漸進的な余裕を提供する。
ユーザは、回答の文をそのクレームに分解することができる。
各クレームに対して、ユーザはソースから抽出されたサポートや矛盾した抜粋を見ることができる。
これらの抜粋は、ソースへのクリック可能なコンディットとして役立ちます(私たちの応用では、科学論文)。
証拠自体により多くの引用が含まれている場合、UIは証拠を引用された情報源からの抜粋にまとめる。
これらの属性勾配の特徴は、応答、クレーム、抽出、コンテキスト間の同時相互接続を促進する。
ユーザビリティスタディでは,属性AI回答を属性勾配とベースラインで修正したタスクにおいて,ソースとのより深いエンゲージメントとよりリッチなリビジョンが観察された。
関連論文リスト
- Cite Pretrain: Retrieval-Free Knowledge Attribution for Large Language Models [53.17363502535395]
信頼できる言語モデルは、正しい答えと検証可能な答えの両方を提供するべきです。
現在のシステムは、外部レトリバーを推論時にクエリすることで、引用を挿入する。
本稿では,合成QAペアを継続的に事前訓練するActive Indexingを提案する。
論文 参考訳(メタデータ) (2025-06-21T04:48:05Z) - Is the Top Still Spinning? Evaluating Subjectivity in Narrative Understanding [40.78154629252038]
曖昧なクレームにバイナリラベルを強制すると、評価の信頼性が低下する。
請求項のニュアンス評価を提供する方法として,LCM生成した要約の編集を紹介する。
我々は,ARMが主張の忠実性に関するアノテータ合意において,絶対的な21%の改善をもたらすことを示す。
論文 参考訳(メタデータ) (2025-04-01T19:08:24Z) - Enhancing Post-Hoc Attributions in Long Document Comprehension via Coarse Grained Answer Decomposition [10.585679421637948]
ポストホック属性システムは、回答テキストをソース文書にマッピングするように設計されているが、このマッピングの粒度は未解決である。
そこで本研究では,テンプレートを用いたテキスト内学習を用いて,帰属に対する回答の事実分解に関する新しい手法を提案し,検討する。
論文 参考訳(メタデータ) (2024-09-25T16:32:35Z) - WebCiteS: Attributed Query-Focused Summarization on Chinese Web Search Results with Citations [34.99831757956635]
我々は,属性付きクエリ中心要約 (AQFS) のタスクを定式化するとともに,7kの人称注釈の要約を引用した中国語データセットであるWebCiteSを提示する。
これらの課題に対処するために、詳細なメトリクスを開発し、自動評価器が文を細かな検証のためにサブステートに分解できるようにする。
論文 参考訳(メタデータ) (2024-03-04T07:06:41Z) - On Context Utilization in Summarization with Large Language Models [83.84459732796302]
大きな言語モデル(LLM)は抽象的な要約タスクに優れ、流動的で関連する要約を提供する。
最近の進歩は、100kトークンを超える長期入力コンテキストを扱う能力を拡張している。
要約における文脈利用と位置バイアスに関する最初の総合的研究を行う。
論文 参考訳(メタデータ) (2023-10-16T16:45:12Z) - Generating Literal and Implied Subquestions to Fact-check Complex Claims [64.81832149826035]
我々は、複雑なクレームを、そのクレームの正確性に影響を及ぼす「イエス・ノー・サブクエスト」の包括的集合に分解することに集中する。
我々は1000以上のクレームに対する分解のデータセットである ClaimDecomp を提示する。
これらのサブクエストは、関連する証拠を特定し、すべてのクレームを事実確認し、回答を通じて正確性を引き出すのに役立ちます。
論文 参考訳(メタデータ) (2022-05-14T00:40:57Z) - AnswerSumm: A Manually-Curated Dataset and Pipeline for Answer
Summarization [73.91543616777064]
Stack OverflowやYahoo!のようなコミュニティ質問回答(CQA)フォーラムには、幅広いコミュニティベースの質問に対する回答の豊富なリソースが含まれている。
回答の要約の1つのゴールは、回答の視点の範囲を反映した要約を作成することである。
本研究は,専門言語学者による解答要約のための4,631個のCQAスレッドからなる新しいデータセットを導入する。
論文 参考訳(メタデータ) (2021-11-11T21:48:02Z) - Context-Based Quotation Recommendation [60.93257124507105]
本稿では,新しい文脈対応引用レコメンデーションシステムを提案する。
これは、所定のソース文書から引用可能な段落とトークンの列挙リストを生成する。
音声テキストと関連するニュース記事の収集実験を行う。
論文 参考訳(メタデータ) (2020-05-17T17:49:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。