論文の概要: Argumentative Human-AI Decision-Making: Toward AI Agents That Reason With Us, Not For Us
- arxiv url: http://arxiv.org/abs/2603.15946v1
- Date: Mon, 16 Mar 2026 21:51:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-18 17:42:07.007357
- Title: Argumentative Human-AI Decision-Making: Toward AI Agents That Reason With Us, Not For Us
- Title(参考訳): 人間のAIによる意思決定:AIエージェントは人間ではなく、人間と関係がある
- Authors: Stylianos Loukas Vasileiou, Antonio Rago, Francesca Toni, William Yeoh,
- Abstract要約: 我々は,これらの分野の収束が新たなパラダイムの基盤となることを論じる。
我々は、議論フレームワークのマイニング、議論フレームワークの合成、議論的推論の相乗効果が、決定を正当化するだけでなく、決定に異議を唱え、修正可能な弁証的プロセスに関わるエージェントをどのように可能にしているかを分析する。
- 参考スコア(独自算出の注目度): 25.806044355311553
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Computational argumentation offers formal frameworks for transparent, verifiable reasoning but has traditionally been limited by its reliance on domain-specific information and extensive feature engineering. In contrast, LLMs excel at processing unstructured text, yet their opaque nature makes their reasoning difficult to evaluate and trust. We argue that the convergence of these fields will lay the foundation for a new paradigm: Argumentative Human-AI Decision-Making. We analyze how the synergy of argumentation framework mining, argumentation framework synthesis, and argumentative reasoning enables agents that do not just justify decisions, but engage in dialectical processes where decisions are contestable and revisable -- reasoning with humans rather than for them. This convergence of computational argumentation and LLMs is essential for human-aware, trustworthy AI in high-stakes domains.
- Abstract(参考訳): 計算的議論は、透過的で検証可能な推論のための形式的なフレームワークを提供するが、伝統的にドメイン固有の情報と広範な機能工学に依存して制限されてきた。
対照的に、LLMは構造化されていないテキストの処理に優れていますが、その不透明な性質は彼らの推論を評価や信頼を困難にします。
我々は,これらの分野の収束が新たなパラダイムの基盤となることを論じる。
我々は、議論フレームワークのマイニング、議論フレームワークの合成、議論的推論の相乗効果によって、決定を正当化するだけでなく、決定が競合し、修正可能である弁証的プロセスに関わるエージェントが、人間ではなく、人間との推論を行うことができるかを分析する。
この計算的議論とLLMの収束は、高い領域における人間に認識され、信頼できるAIにとって不可欠である。
関連論文リスト
- Thinking Longer, Not Always Smarter: Evaluating LLM Capabilities in Hierarchical Legal Reasoning [11.255428720705204]
本稿では,ケース間の重要な区別を3段階の推論タスクに分解する枠組みを提案する。
我々のフレームワークは、要因と呼ばれる事実的述語を使用してケースをモデル化し、それらを法的知識階層に整理し、区別を識別するための検証可能なルールを定義します。
我々は、モデルが正しい応答よりも間違った応答について、常に多くの計算資源を消費していることを発見し、「より長く考えることは、必ずしも「より賢く考える」という意味ではないことを示唆している。
論文 参考訳(メタデータ) (2025-10-09T18:15:28Z) - Teaching AI to Handle Exceptions: Supervised Fine-Tuning with Human-Aligned Judgment [0.0]
大規模言語モデル(LLM)はエージェントAIシステムへと進化している。
推論に優れるLCMでさえ、政策に厳格に従うため、人間の判断から大きく逸脱していることを示す。
次に、例外を処理するためにAIエージェントをチューニングするための3つのアプローチを評価する。
論文 参考訳(メタデータ) (2025-03-04T20:00:37Z) - Counterfactual and Semifactual Explanations in Abstract Argumentation: Formal Foundations, Complexity and Computation [19.799266797193344]
議論ベースのシステムは、意思決定プロセスをサポートしながら説明責任を欠くことが多い。
対実的・半実的な説明は解釈可能性のテクニックである。
本稿では,制約の弱いArgumentation Frameworkにおいて,逆ファクトおよび半ファクトのクエリを符号化可能であることを示す。
論文 参考訳(メタデータ) (2024-05-07T07:27:27Z) - Language Models can be Logical Solvers [99.40649402395725]
論理解法の推論過程を直接エミュレートする新しい言語モデルであるLoGiPTを導入する。
LoGiPTは、導出的ソルバの見えない推論過程を明らかにして精錬することから導かれる、新しく構築された命令チューニングデータセットに基づいて微調整される。
論文 参考訳(メタデータ) (2023-11-10T16:23:50Z) - From Heuristic to Analytic: Cognitively Motivated Strategies for
Coherent Physical Commonsense Reasoning [66.98861219674039]
ヒューリスティック分析推論(HAR)戦略は、モデル決定のための合理化のコヒーレンスを大幅に改善する。
以上の結果から, PLM推論の一貫性と信頼性を効果的に向上できる可能性が示唆された。
論文 参考訳(メタデータ) (2023-10-24T19:46:04Z) - A Unifying Framework for Learning Argumentation Semantics [47.84663434179473]
Inductive Logic Programmingアプローチを用いて、抽象的および構造化された議論フレームワークのアクセシビリティセマンティクスを解釈可能な方法で学習する新しいフレームワークを提案する。
提案手法は既存の議論解法よりも優れており,フォーマルな議論や人間と機械の対話の領域において,新たな研究の方向性が開けることになる。
論文 参考訳(メタデータ) (2023-10-18T20:18:05Z) - Towards CausalGPT: A Multi-Agent Approach for Faithful Knowledge Reasoning via Promoting Causal Consistency in LLMs [55.66353783572259]
Causal-Consistency Chain-of-Thoughtは、基礎モデルの忠実さと因果性を強化するために、マルチエージェントコラボレーションを活用する。
我々のフレームワークは、広範囲かつ包括的な評価を通じて、最先端の手法よりも大きな優位性を示す。
論文 参考訳(メタデータ) (2023-08-23T04:59:21Z) - In Search of Verifiability: Explanations Rarely Enable Complementary
Performance in AI-Advised Decision Making [25.18203172421461]
説明は、人間の意思決定者がAIの予測の正しさを検証できる範囲でのみ有用である、と我々は主張する。
また、補完性能の目的と適切な依存度を比較し、後者を結果段階と戦略段階の信頼度の概念に分解する。
論文 参考訳(メタデータ) (2023-05-12T18:28:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。