論文の概要: Argumentation for Explainable and Globally Contestable Decision Support with LLMs
- arxiv url: http://arxiv.org/abs/2603.14643v1
- Date: Sun, 15 Mar 2026 22:37:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 16:19:35.934803
- Title: Argumentation for Explainable and Globally Contestable Decision Support with LLMs
- Title(参考訳): LLMによる説明可能かつグローバルに検証可能な意思決定支援のための議論
- Authors: Adam Dejl, Matthew Williams, Francesca Toni,
- Abstract要約: ArgEvalは、インスタンス固有の推論から一般的な決定オプションの構造化評価に移行するフレームワークである。
これらのフレームワークは、グローバルな競争性をサポートしながら、特定のケースについて説明可能なレコメンデーションを提供する。
本稿では,ArgEvalが臨床実践に合わせて説明可能なガイダンスを作成できることを示す。
- 参考スコア(独自算出の注目度): 16.75184263883707
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Large language models (LLMs) exhibit strong general capabilities, but their deployment in high-stakes domains is hindered by their opacity and unpredictability. Recent work has taken meaningful steps towards addressing these issues by augmenting LLMs with post-hoc reasoning based on computational argumentation, providing faithful explanations and enabling users to contest incorrect decisions. However, this paradigm is limited to pre-defined binary choices and only supports local contestation for specific instances, leaving the underlying decision logic unchanged and prone to repeated mistakes. In this paper, we introduce ArgEval, a framework that shifts from instance-specific reasoning to structured evaluation of general decision options. Rather than mining arguments solely for individual cases, ArgEval systematically maps task-specific decision spaces, builds corresponding option ontologies, and constructs general argumentation frameworks (AFs) for each option. These frameworks can then be instantiated to provide explainable recommendations for specific cases while still supporting global contestability through modification of the shared AFs. We investigate the effectiveness of ArgEval on treatment recommendation for glioblastoma, an aggressive brain tumour, and show that it can produce explainable guidance aligned with clinical practice.
- Abstract(参考訳): 大規模言語モデル(LLM)は強力な汎用能力を示すが、高い領域への展開はその不透明さと予測不可能さによって妨げられる。
最近の研究は、計算的議論に基づくポストホック推論によるLLMの強化、忠実な説明の提供、ユーザが誤った判断に異議を唱えることによって、これらの問題に対処するための有意義な一歩を踏み出した。
しかし、このパラダイムは定義済みのバイナリ選択に限られており、特定のインスタンスに対するローカルな競合のみをサポートし、根底にある決定ロジックは変更されず、繰り返し失敗する傾向がある。
本稿では、インスタンス固有の推論から一般的な意思決定オプションの構造化評価へ移行するフレームワークであるArgEvalを紹介する。
ArgEvalは個々のケースだけに引数をマイニングするのではなく、タスク固有の決定空間を体系的にマッピングし、対応するオプションオントロジーを構築し、各オプションに対して一般的な議論フレームワーク(AF)を構築する。
これらのフレームワークをインスタンス化して、特定のケースについて説明可能なレコメンデーションを提供すると同時に、共有AFの変更を通じてグローバルな競合性をサポートします。
発作性脳腫瘍であるグリオ芽腫に対する治療勧告に対するArgEvalの有効性を検討した。
関連論文リスト
- Adaptive Collaboration of Arena-Based Argumentative LLMs for Explainable and Contestable Legal Reasoning [1.4988096015658898]
ACALは、アリーナを基盤とした量的双極性論証フレームワーク(A-QBAF)と適応的マルチエージェント協調を統合する神経シンボルフレームワークである。
ACALは専門家のエージェントチームを動的に配置して議論を構築し、競合するクレームを判断するために衝突解決メカニズムを採用し、境界線事件に対して不確実性を認識したエスカレーションを利用する。
我々のフレームワークはHuman-in-the-Loop (HITL) の競合性ワークフローをサポートしており、ユーザーは基礎となる推論グラフを直接監査して修正して最終判断に影響を与えることができる。
論文 参考訳(メタデータ) (2026-02-21T17:47:13Z) - ARGORA: Orchestrated Argumentation for Causally Grounded LLM Reasoning and Decision Making [11.531465685641086]
本稿では,多専門家による議論を明示的な議論グラフにまとめるフレームワークARGORAを紹介する。
ARGORAは個々の議論を排除し、結果を再計算し、どの推論チェーンが必要かを特定する。
さらに,内的推論と外的判断を一致させる補正機構を導入する。
論文 参考訳(メタデータ) (2026-01-29T10:48:04Z) - Advancing Adaptive Multi-Stage Video Anomaly Reasoning: A Benchmark Dataset and Method [96.63801368613177]
本稿では,記述的理解から構造化多段階推論への映像異常解析を向上するタスクを提案する。
我々は8,641本のビデオからなる新しいデータセットを提示し、合計5万本以上のサンプルを作成し、ビデオ異常理解のための最大のデータセットの1つである。
提案したタスクとデータセットに基づいて,適応的階層的推論とリスク認識意思決定をサポートする,Vad-R1-Plusと呼ばれるエンドツーエンドのMLLMベースのVARモデルを開発する。
論文 参考訳(メタデータ) (2026-01-15T08:09:04Z) - Implicit Reasoning in Large Language Models: A Comprehensive Survey [67.53966514728383]
大規模言語モデル(LLM)は、幅広いタスクにまたがる強力な一般化を実証している。
最近の研究は、暗黙の推論に拍車をかけた、明示的な思考の連鎖から注意を向けている。
本調査では,表現形式から計算戦略へ焦点を移し,実行パラダイムを中心とした分類を紹介した。
論文 参考訳(メタデータ) (2025-09-02T14:16:02Z) - PixelThink: Towards Efficient Chain-of-Pixel Reasoning [70.32510083790069]
PixelThinkは、外部から推定されるタスクの難しさと内部で測定されたモデルの不確実性を統合する、シンプルで効果的なスキームである。
シーンの複雑さと予測信頼度に応じて推論の長さを圧縮することを学ぶ。
実験により,提案手法は推論効率と全体セグメンテーション性能の両方を改善した。
論文 参考訳(メタデータ) (2025-05-29T17:55:49Z) - Aggregation of Reasoning: A Hierarchical Framework for Enhancing Answer Selection in Large Language Models [84.15513004135576]
最近の研究は、複数の推論チェーンをサンプリングし、応答周波数に基づいてアンサンブルすることで、Large Language Models(LLMs)の推論性能を向上させる。
このアプローチは、正しい答えが少数派である場合に失敗する。
階層的推論集約フレームワークAoRを導入し、推論連鎖の評価に基づいて回答を選択する。
論文 参考訳(メタデータ) (2024-05-21T17:12:19Z) - Argumentative Large Language Models for Explainable and Contestable Claim Verification [13.045050015831903]
本稿では,議論的推論を用いた大規模言語モデルの拡張手法であるArgLLMsを紹介する。
ArgLLMsは議論フレームワークを構築し、意思決定を支援するための公式な推論の基礎となる。
我々はArgLLMsの性能を最先端技術と比較して実験的に評価した。
論文 参考訳(メタデータ) (2024-05-03T13:12:28Z) - Sentiment Analysis through LLM Negotiations [58.67939611291001]
感情分析の標準的なパラダイムは、単一のLCMに依存して、その決定を1ラウンドで行うことである。
本稿では,感情分析のためのマルチLLMネゴシエーションフレームワークを提案する。
論文 参考訳(メタデータ) (2023-11-03T12:35:29Z) - A Semantic Approach to Decidability in Epistemic Planning (Extended
Version) [72.77805489645604]
我々は決定可能性を達成するために新しい意味論的アプローチを用いる。
具体的には、知識の論理S5$_n$と(知識)可換性と呼ばれる相互作用公理を拡大する。
我々は,本フレームワークが,独立した知識である共通知識の有限的非固定点的特徴を認めていることを証明した。
論文 参考訳(メタデータ) (2023-07-28T11:26:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。