論文の概要: Explainable Decision Making with Lean and Argumentative Explanations
- arxiv url: http://arxiv.org/abs/2201.06692v1
- Date: Tue, 18 Jan 2022 01:29:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-19 15:58:22.751511
- Title: Explainable Decision Making with Lean and Argumentative Explanations
- Title(参考訳): リーンによる説明可能な意思決定と議論的説明
- Authors: Xiuyi Fan, Francesca Toni
- Abstract要約: ここでは、"よい"決定は、"最も"目標を満たす代替案と、(ii)"最も望ましい"目標を満たす選択肢に相当します。
次に、各変種と「良さ」の概念について、2つの形式で説明し、異なるニーズと能力を持つ観客に対する選択肢の選択を正当化する。
- 参考スコア(独自算出の注目度): 11.644036228274176
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: It is widely acknowledged that transparency of automated decision making is
crucial for deployability of intelligent systems, and explaining the reasons
why some decisions are "good" and some are not is a way to achieving this
transparency. We consider two variants of decision making, where "good"
decisions amount to alternatives (i) meeting "most" goals, and (ii) meeting
"most preferred" goals. We then define, for each variant and notion of
"goodness" (corresponding to a number of existing notions in the literature),
explanations in two formats, for justifying the selection of an alternative to
audiences with differing needs and competences: lean explanations, in terms of
goals satisfied and, for some notions of "goodness", alternative decisions, and
argumentative explanations, reflecting the decision process leading to the
selection, while corresponding to the lean explanations. To define
argumentative explanations, we use assumption-based argumentation (ABA), a
well-known form of structured argumentation. Specifically, we define ABA
frameworks such that "good" decisions are admissible ABA arguments and draw
argumentative explanations from dispute trees sanctioning this admissibility.
Finally, we instantiate our overall framework for explainable decision-making
to accommodate connections between goals and decisions in terms of decision
graphs incorporating defeasible and non-defeasible information.
- Abstract(参考訳): 自動化された意思決定の透明性は、インテリジェントなシステムのデプロイに不可欠であると広く認識されており、意思決定が"良い"理由と、この透明性を達成するための方法ではない理由を説明している。
我々は「良い」決定が代替に等しい2種類の意思決定を考える。
i)「最善」の目標を達成し、
(ii)「最も望ましい」目標の達成。
次に、それぞれの変種と「善」の概念(文献上の多くの既存の概念に対応する)について、異なるニーズと能力を持つ聴衆の選択肢の選択を正当化する2つの形式の説明を定義する: リーンの説明、満足する目標の観点、そして「善」の概念、代替決定、議論的な説明、そして、選択に至る決定過程を反映して、リーンの説明に対応する。
議論的説明を定義するため、仮定に基づく議論(ABA)は構造化議論のよく知られた形式である。
具体的には、「良い」決定が許容可能なABAの議論であるようなABAフレームワークを定義し、この許容性を認める議論ツリーから議論的な説明を引き出す。
最後に、デファシブルおよび非デファシブルな情報を含む意思決定グラフの観点で、目標と意思決定の関連性に対応するために、説明可能な意思決定のための全体的なフレームワークをインスタンス化する。
関連論文リスト
- Enhancing Language Model Rationality with Bi-Directional Deliberation Reasoning [73.77288647011295]
本稿では,BI-Directional Deliberation Reasoning (BIDDER)を導入し,言語モデルの意思決定合理性を高める。
私たちのアプローチには3つの重要なプロセスがあります。
歴史的データから、意思決定過程における不確実な情報を表すために隠された国家を推定すること。
隠れた状態を使って将来の潜在的な状態と潜在的な結果を予測する。
歴史的情報(過去コンテキスト)と長期的結果(未来コンテキスト)を統合することで、推論を知らせる。
論文 参考訳(メタデータ) (2024-07-08T16:48:48Z) - Stakeholder-in-the-Loop Fair Decisions: A Framework to Design Decision
Support Systems in Public and Private Organizations [0.0]
我々は,「ループ内での公正な決定」と呼ばれる議論の枠組みを提案する。
説明責任のある意思決定支援システムを設計するために考慮する必要がある4つの利害関係者を特定します。
論文 参考訳(メタデータ) (2023-08-02T14:07:58Z) - Explainable Data-Driven Optimization: From Context to Decision and Back
Again [76.84947521482631]
データ駆動最適化では、コンテキスト情報と機械学習アルゴリズムを使用して、不確実なパラメータによる決定問題の解決策を見つける。
本稿では,データ駆動型問題に対する解法を説明するために,対実的説明手法を提案する。
在庫管理やルーティングといった運用管理における重要な問題を説明することで,我々のアプローチを実証する。
論文 参考訳(メタデータ) (2023-01-24T15:25:16Z) - Explainability's Gain is Optimality's Loss? -- How Explanations Bias
Decision-making [0.0]
説明は、アルゴリズムと人間の意思決定者とのコミュニケーションを促進するのに役立つ。
因果モデルに関する特徴に基づく説明のセマンティクスは、意思決定者の以前の信念から漏れを引き起こす。
このような違いは、準最適かつ偏った決定結果をもたらす可能性がある。
論文 参考訳(メタデータ) (2022-06-17T11:43:42Z) - A Justice-Based Framework for the Analysis of Algorithmic
Fairness-Utility Trade-Offs [0.0]
予測に基づく意思決定システムでは、異なる視点が異なってくる可能性がある。
意思決定者の短期的なビジネス目標はしばしば、意思決定対象が公平に扱われたいという願望と矛盾している。
本稿では,これらの価値を優先した選択を明確化するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-06T20:31:55Z) - Decision-making with E-admissibility given a finite assessment of
choices [64.29961886833972]
本稿では,E-admissibilityによる意思決定の意義について考察する。
我々は選択関数の数学的枠組みを用いて選択と拒絶を指定する。
線形実現可能性問題を解くことによって,この拡張を計算するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-04-15T11:46:00Z) - Legal perspective on possible fairness measures - A legal discussion
using the example of hiring decisions (preprint) [0.0]
雇用決定の特定の適用に適用可能な、さまざまな公正の概念を説明します。
本研究は,それぞれの公正解釈について,その長所と短所を分析し,法的観点から評価する。
論文 参考訳(メタデータ) (2021-08-16T06:41:39Z) - Contrastive Explanations for Model Interpretability [77.92370750072831]
分類モデルの対照的説明を生成する手法を提案する。
本手法は潜在空間へのモデル表現の投影に基づいている。
本研究は,モデル決定のより正確できめ細かな解釈性を提供するためのラベルコントラスト的説明の能力に光を当てた。
論文 参考訳(メタデータ) (2021-03-02T00:36:45Z) - "A cold, technical decision-maker": Can AI provide explainability,
negotiability, and humanity? [47.36687555570123]
参加者60名からなる5つのワークショップからなるアルゴリズム決定の質的研究の結果を報告する。
意思決定における参加者の人間性に関する考察を議論し,「交渉可能性」という概念を導入する。
論文 参考訳(メタデータ) (2020-12-01T22:36:54Z) - Inverse Active Sensing: Modeling and Understanding Timely
Decision-Making [111.07204912245841]
我々は,内因性,文脈依存型時間圧下でのエビデンスに基づく意思決定の一般的な設定のための枠組みを開発する。
意思決定戦略において、サプライズ、サスペンス、最適性の直感的な概念をモデル化する方法を実証する。
論文 参考訳(メタデータ) (2020-06-25T02:30:45Z) - Explaining Data-Driven Decisions made by AI Systems: The Counterfactual
Approach [11.871523410051527]
我々は、その決定を因果的に駆動するシステムのデータ入力の集合として、説明を考察する。
モデル予測において重要な重みを持つ特徴が対応する決定に影響を及ぼさない可能性があることを示す。
論文 参考訳(メタデータ) (2020-01-21T09:58:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。