論文の概要: Explainability and justification of automatic-decision making: A conceptual framework and a practical application
- arxiv url: http://arxiv.org/abs/2603.02073v1
- Date: Mon, 02 Mar 2026 17:00:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-03 19:50:56.988739
- Title: Explainability and justification of automatic-decision making: A conceptual framework and a practical application
- Title(参考訳): 自動意思決定の説明可能性と正当化:概念的枠組みと実践的応用
- Authors: Sarra Tajouri, Yves Meinard, Alexis Tsoukiàs, Thierry Kirat,
- Abstract要約: 論文は、アルゴリズムによる意思決定システムの受容性にとって重要な条件は、決定が受取人の目で正当化されなければならない、と論じている。
我々は説明と正当化を明確に区別する。
本研究では,ハベルマスのコミュニケーション行動理論とペレルマンの新修辞学法理論に基づく説明と正当化の概念的枠組みを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Explainability of algorithmic decision-making systems is both a regulatory objective and an area of intense research. The article argues that a crucial condition for the acceptability of algorithmic decision-making systems is that decisions must be justified in the eyes of their recipients. We make a clear distinction between explanation and justification. Explanations describe how a decision was made, while justifications give reasons that aim to make the decision acceptable. We propose a conceptual framework of explanations and justifications, based on Habermas's theory of communicative action and Perelman's New Rhetoric theory of law. This framework helps to analyze how different forms of explanation can support or fail to support justification. We illustrate our approach with a case study on university admissions in France.
- Abstract(参考訳): アルゴリズムによる意思決定システムの説明可能性は、規制目的と厳しい研究分野の両方である。
この記事は、アルゴリズムによる意思決定システムの受容性にとって重要な条件は、意思決定が受取人の目で正当化されなければならない、と論じている。
我々は説明と正当化を明確に区別する。
説明は意思決定の仕方を説明するが、正当化は決定を容認することを目的とした理由を与える。
本研究では,ハベルマスのコミュニケーション行動理論とペレルマンの新修辞学法理論に基づく説明と正当化の概念的枠組みを提案する。
このフレームワークは、さまざまな説明形態が正当性をサポートするか、あるいは失敗するかを分析するのに役立ちます。
本稿では,フランスにおける大学入学のケーススタディを紹介する。
関連論文リスト
- Explaining Non-monotonic Normative Reasoning using Argumentation Theory with Deontic Logic [7.162465547358201]
本稿では, 法的に関係のある設計決定に対して, 設計者に効果的な説明を与える方法について検討する。
我々は、規範と規範的文脈における行動の正当化のための重要な法的・倫理的原則を規定することによって、説明を提供するための以前のシステムを拡張した。
一階述語論理が強い表現力を持つことを考慮し、本論文ではデオン演算子と選好を持つ一階述語論理系を採用する。
論文 参考訳(メタデータ) (2024-09-18T08:03:29Z) - Conceptual and Unbiased Reasoning in Language Models [98.90677711523645]
本稿では,抽象的質問に対する概念的推論をモデルに強制する,新しい概念化フレームワークを提案する。
既存の大規模言語モデルは概念的推論では不足しており、様々なベンチマークでは9%から28%に低下している。
ハイレベルな抽象的推論が不偏で一般化可能な意思決定の鍵となるので、モデルがどのように改善できるかについて議論する。
論文 参考訳(メタデータ) (2024-03-30T00:53:53Z) - Human-centred explanation of rule-based decision-making systems in the
legal domain [0.3686808512438362]
法域におけるルールに基づく自動意思決定システムの人間中心的説明法を提案する。
まず,説明手法を開発するための概念的枠組みを確立する。
次に,質問駆動による説明を可能にするために,グラフデータベースを用いた説明手法を提案する。
論文 参考訳(メタデータ) (2023-10-25T15:20:05Z) - A Unifying Framework for Learning Argumentation Semantics [47.84663434179473]
Inductive Logic Programmingアプローチを用いて、抽象的および構造化された議論フレームワークのアクセシビリティセマンティクスを解釈可能な方法で学習する新しいフレームワークを提案する。
提案手法は既存の議論解法よりも優れており,フォーマルな議論や人間と機械の対話の領域において,新たな研究の方向性が開けることになる。
論文 参考訳(メタデータ) (2023-10-18T20:18:05Z) - Disentangling Reasoning Capabilities from Language Models with
Compositional Reasoning Transformers [72.04044221898059]
ReasonFormerは、人間のモジュール的および構成的推論プロセスを反映するための統一的な推論フレームワークである。
表現モジュール(自動思考)と推論モジュール(制御思考)は、異なるレベルの認知を捉えるために切り離される。
統一された推論フレームワークは、単一のモデルで複数のタスクを解決し、エンドツーエンドでトレーニングされ、推論される。
論文 参考訳(メタデータ) (2022-10-20T13:39:55Z) - What is Legitimate Decision Support? [0.0]
2つの概念は、この意思決定支援の側面、すなわち妥当性と正当性を分析するための文献を構造化している。
その重要性にも拘わらず、この概念は決定支援の文献にふさわしい関心を受けていない。
本稿では,意思決定支援の文脈に適応した汎用的正当性理論を提案する。
論文 参考訳(メタデータ) (2022-01-28T12:20:18Z) - Explainable Decision Making with Lean and Argumentative Explanations [11.644036228274176]
ここでは、"よい"決定は、"最も"目標を満たす代替案と、(ii)"最も望ましい"目標を満たす選択肢に相当します。
次に、各変種と「良さ」の概念について、2つの形式で説明し、異なるニーズと能力を持つ観客に対する選択肢の選択を正当化する。
論文 参考訳(メタデータ) (2022-01-18T01:29:02Z) - Thinking About Causation: A Causal Language with Epistemic Operators [58.720142291102135]
我々はエージェントの状態を表すことで因果モデルの概念を拡張した。
対象言語の側面には、知識を表現する演算子や、新しい情報を観察する行為が追加されます。
我々は、論理の健全かつ完全な公理化を提供し、このフレームワークと因果的チーム意味論との関係について論じる。
論文 参考訳(メタデータ) (2020-10-30T12:16:45Z) - Towards Interpretable Reasoning over Paragraph Effects in Situation [126.65672196760345]
我々は,原因と効果を理解するためのモデルを必要とする状況において,段落効果を推論する作業に焦点をあてる。
本稿では,ニューラルネットワークモジュールを用いた推論プロセスの各ステップを明示的にモデル化する逐次的手法を提案する。
特に、5つの推論モジュールはエンドツーエンドで設計され、学習され、より解釈可能なモデルにつながる。
論文 参考訳(メタデータ) (2020-10-03T04:03:52Z) - Aligning Faithful Interpretations with their Social Attribution [58.13152510843004]
モデル解釈が忠実であることの要件はあいまいで不完全であることに気付く。
因果的帰属(因果的帰属)と解釈(社会的帰属)に対する人間の行動の帰属(因果的帰属)の相違が問題であると認識する。
論文 参考訳(メタデータ) (2020-06-01T16:45:38Z) - Algorithmic Recourse: from Counterfactual Explanations to Interventions [16.9979815165902]
反事実的な説明は、どこに着く必要があるのかを個人に知らせるが、そこにたどり着くには至らない、と我々は主張する。
代わりに、最小限の介入を通して、最も近い対実的な説明から言い換えへのパラダイムシフトを提案する。
論文 参考訳(メタデータ) (2020-02-14T22:49:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。