論文の概要: Human-centred explanation of rule-based decision-making systems in the
legal domain
- arxiv url: http://arxiv.org/abs/2310.16704v1
- Date: Wed, 25 Oct 2023 15:20:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-26 14:01:32.865280
- Title: Human-centred explanation of rule-based decision-making systems in the
legal domain
- Title(参考訳): 法域におけるルールに基づく意思決定システムの人間中心的説明
- Authors: Suzan Zuurmond, AnneMarie Borg, Matthijs van Kempen and Remi Wieten
- Abstract要約: 法域におけるルールに基づく自動意思決定システムの人間中心的説明法を提案する。
まず,説明手法を開発するための概念的枠組みを確立する。
次に,質問駆動による説明を可能にするために,グラフデータベースを用いた説明手法を提案する。
- 参考スコア(独自算出の注目度): 0.3686808512438362
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a human-centred explanation method for rule-based automated
decision-making systems in the legal domain. Firstly, we establish a conceptual
framework for developing explanation methods, representing its key internal
components (content, communication and adaptation) and external dependencies
(decision-making system, human recipient and domain). Secondly, we propose an
explanation method that uses a graph database to enable question-driven
explanations and multimedia display. This way, we can tailor the explanation to
the user. Finally, we show how our conceptual framework is applicable to a
real-world scenario at the Dutch Tax and Customs Administration and implement
our explanation method for this scenario.
- Abstract(参考訳): 法域におけるルールに基づく自動意思決定システムの人間中心的説明法を提案する。
まず,内的要素(コンテンツ,コミュニケーション,適応)と外部依存性(意思決定システム,人間受取,ドメイン)を表現する,説明手法を開発するための概念的枠組みを確立する。
次に,質問駆動型説明とマルチメディア表示を実現するために,グラフデータベースを用いた説明手法を提案する。
このようにして、ユーザへの説明を調整できます。
最後に、オランダ税関の現実シナリオに我々の概念的枠組みがどのように適用されているかを示し、このシナリオの説明手法を実装した。
関連論文リスト
- A Note on an Inferentialist Approach to Resource Semantics [48.65926948745294]
「推論主義」とは、推論行動の観点で意味が与えられるという考え方である。
本稿では,「推論主義」が資源意味論の汎用的で表現力豊かな枠組みを実現する方法を示す。
論文 参考訳(メタデータ) (2024-05-10T14:13:21Z) - Improving Intervention Efficacy via Concept Realignment in Concept Bottleneck Models [57.86303579812877]
概念ボトルネックモデル (Concept Bottleneck Models, CBM) は、人間の理解可能な概念に基づいて、解釈可能なモデル決定を可能にする画像分類である。
既存のアプローチは、強いパフォーマンスを達成するために、画像ごとに多数の人間の介入を必要とすることが多い。
本稿では,概念関係を利用した学習型概念認識介入モジュールについて紹介する。
論文 参考訳(メタデータ) (2024-05-02T17:59:01Z) - Combining Embedding-Based and Semantic-Based Models for Post-hoc
Explanations in Recommender Systems [0.0]
本稿では,埋め込みモデルとセマンティックモデルを組み合わせて,レコメンダシステムにおけるポストホックな説明を生成する手法を提案する。
私たちが定義したフレームワークは、意味があり分かりやすい説明を生み出し、ユーザの信頼と満足度を高め、eコマース分野におけるレコメンダシステムの採用を促進することを目的としています。
論文 参考訳(メタデータ) (2024-01-09T10:24:46Z) - A Taxonomy of Decentralized Identifier Methods for Practitioners [50.76687001060655]
SSI(Self-Sovereign Identity)の新たなアイデンティティ管理パラダイムの中核となるのは、W3C Decentralized Identifiers(DID)標準である。
本稿では, DID手法を選択する際に, 実践者が情報的意思決定を行えるようにするためのDID手法の分類法を提案する。
論文 参考訳(メタデータ) (2023-10-18T13:01:40Z) - Explainable Data-Driven Optimization: From Context to Decision and Back
Again [76.84947521482631]
データ駆動最適化では、コンテキスト情報と機械学習アルゴリズムを使用して、不確実なパラメータによる決定問題の解決策を見つける。
本稿では,データ駆動型問題に対する解法を説明するために,対実的説明手法を提案する。
在庫管理やルーティングといった運用管理における重要な問題を説明することで,我々のアプローチを実証する。
論文 参考訳(メタデータ) (2023-01-24T15:25:16Z) - A Methodology and Software Architecture to Support
Explainability-by-Design [0.0]
本稿では,意思決定システムの設計における説明能力を含む積極的尺度を特徴とする説明可能性設計手法について述べる。
方法論は, (A)説明要求分析, (B)説明技術設計, (C)説明検証の3段階からなる。
提案手法は,1文あたり2時間程度の開発時間で抽出可能であることがわかった。
論文 参考訳(メタデータ) (2022-06-13T15:34:29Z) - Reviewable Automated Decision-Making: A Framework for Accountable
Algorithmic Systems [1.7403133838762448]
本稿では,adm(automated and algorithmic decision-making)のアカウンタビリティ向上のためのフレームワークとして,reviewabilityを提案する。
我々は、ADMを人間と技術の両方の要素を含む社会技術的プロセスであると理解し、決定が下される前に開始し、決定そのものを超えて拡張する。
我々は、人間の意思決定をレビューする行政法のアプローチに基づいたレビュー可能性枠組みは、admに対してより包括的かつ法的に関連のある説明責任の形式を進めるための実用的な方法であると主張する。
論文 参考訳(メタデータ) (2021-01-26T18:15:34Z) - Sequential Explanations with Mental Model-Based Policies [20.64968620536829]
本研究では,説明者の精神モデルに基づく説明を提供するための強化学習フレームワークを適用した。
我々は、説明が選ばれ、参加者に提示される新しいオンライン人間実験を行う。
以上の結果から,精神モデルに基づく政策は,複数のシーケンシャルな説明よりも解釈可能性を高める可能性が示唆された。
論文 参考訳(メタデータ) (2020-07-17T14:43:46Z) - Explainable Deep Classification Models for Domain Generalization [94.43131722655617]
説明は、深い分類網が決定を下す視覚的証拠の領域として定義される。
トレーニング戦略は周期的な正当性に基づくフィードバックを強制し、モデルが地中真実に直接対応する画像領域に焦点を合わせることを奨励する。
論文 参考訳(メタデータ) (2020-03-13T22:22:15Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z) - Algorithmic Recourse: from Counterfactual Explanations to Interventions [16.9979815165902]
反事実的な説明は、どこに着く必要があるのかを個人に知らせるが、そこにたどり着くには至らない、と我々は主張する。
代わりに、最小限の介入を通して、最も近い対実的な説明から言い換えへのパラダイムシフトを提案する。
論文 参考訳(メタデータ) (2020-02-14T22:49:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。