論文の概要: Using Issues to Explain Legal Decisions
- arxiv url: http://arxiv.org/abs/2106.14688v1
- Date: Fri, 25 Jun 2021 15:06:33 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-01 12:27:13.051621
- Title: Using Issues to Explain Legal Decisions
- Title(参考訳): 問題を使って法的決定を説明する
- Authors: Trevor Bench-Capon
- Abstract要約: このようなシステムからどのような説明を期待するかを検討します。
ケースにおける問題の利用によって提供される構造に注目します。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The need to explain the output from Machine Learning systems designed to
predict the outcomes of legal cases has led to a renewed interest in the
explanations offered by traditional AI and Law systems, especially those using
factor based reasoning and precedent cases. In this paper we consider what sort
of explanations we should expect from such systems, with a particular focus on
the structure that can be provided by the use of issues in cases.
- Abstract(参考訳): 訴訟の結果を予測するために設計された機械学習システムからのアウトプットを説明する必要性は、従来のaiと法システム、特に因子ベースの推論と前例を用いた説明に対する新たな関心をもたらした。
本稿では,このようなシステムに対してどのような説明が期待できるのか,特に問題の利用によって提供できる構造に焦点をあてて検討する。
関連論文リスト
- The Case Against Explainability [8.991619150027264]
法律における理性評価の役割を満足させるために,エンドユーザー説明責任の欠如を示す。
エンドユーザの説明責任は第4の機能に優れており、これは重大なリスクを生じさせる。
この研究は、規制当局と機械学習の実践者たちに、エンドユーザー説明可能性の幅広い追求を再考するよう呼びかける。
論文 参考訳(メタデータ) (2023-05-20T10:56:19Z) - Causal Fairness Analysis [68.12191782657437]
意思決定設定における公平性の問題を理解し、モデル化し、潜在的に解決するためのフレームワークを導入します。
我々のアプローチの主な洞察は、観測データに存在する格差の定量化と、基礎となる、しばしば観測されていない、因果的なメカニズムの収集を結びつけることである。
本研究は,文献中の異なる基準間の関係を整理し,説明するための最初の体系的試みであるフェアネスマップにおいて,本研究の成果を左右するものである。
論文 参考訳(メタデータ) (2022-07-23T01:06:34Z) - Transparency, Compliance, And Contestability When Code Is(n't) Law [91.85674537754346]
技術的なセキュリティ機構と法的なプロセスの両方が、一連の規範に従って誤った行動を扱うメカニズムとして機能する。
彼らは一般的な類似点を共有しているが、どう定義されているか、行動し、被験者に与える影響にも明確な違いがある。
本稿では,両機構の類似点と相違点を,誤動作の対処方法として考察する。
論文 参考訳(メタデータ) (2022-05-08T18:03:07Z) - Everything Has a Cause: Leveraging Causal Inference in Legal Text
Analysis [62.44432226563088]
因果推論は変数間の因果関係を捉えるプロセスである。
本論文では,事実記述から因果グラフを構築するための新たなグラフベース因果推論フレームワークを提案する。
GCIに含まれる因果知識を強力なニューラルネットワークに効果的に注入することで、パフォーマンスと解釈性が向上します。
論文 参考訳(メタデータ) (2021-04-19T16:13:10Z) - Decision Rule Elicitation for Domain Adaptation [93.02675868486932]
ヒトインザループ機械学習は、専門家からラベルを引き出すために人工知能(AI)で広く使用されています。
この作業では、専門家が意思決定を説明する決定ルールを作成できるようにします。
決定規則の適用はアルゴリズムのドメイン適応を改善し、専門家の知識をAIモデルに広めるのに役立つことを示す。
論文 参考訳(メタデータ) (2021-02-23T08:07:22Z) - Impact of Legal Requirements on Explainability in Machine Learning [63.24965775030674]
本研究では,私的および公的な意思決定に課される説明義務と,機械学習技術による実施方法について分析する。
特に、欧州の法律が課す説明可能性の要件と機械学習(ML)モデルへの影響について分析した。
論文 参考訳(メタデータ) (2020-07-10T16:57:18Z) - A systematic review and taxonomy of explanations in decision support and
recommender systems [13.224071661974596]
我々は,勧告システムにおける説明に関する文献を体系的にレビューする。
我々は、説明施設を設計する際に考慮すべき側面の包括的分類法を考案した。
論文 参考訳(メタデータ) (2020-06-15T18:19:20Z) - Distinguish Confusing Law Articles for Legal Judgment Prediction [30.083642130015317]
LJP(Lawal Judgment Prediction)は、その事実を記述したテキストが与えられた場合、訴訟の判断結果を自動的に予測するタスクである。
LJP の課題を解決するために,エンド・ツー・エンドのモデル LADAN を提案する。
論文 参考訳(メタデータ) (2020-04-06T11:09:44Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z) - Algorithmic Recourse: from Counterfactual Explanations to Interventions [16.9979815165902]
反事実的な説明は、どこに着く必要があるのかを個人に知らせるが、そこにたどり着くには至らない、と我々は主張する。
代わりに、最小限の介入を通して、最も近い対実的な説明から言い換えへのパラダイムシフトを提案する。
論文 参考訳(メタデータ) (2020-02-14T22:49:42Z) - Explaining Data-Driven Decisions made by AI Systems: The Counterfactual
Approach [11.871523410051527]
我々は、その決定を因果的に駆動するシステムのデータ入力の集合として、説明を考察する。
モデル予測において重要な重みを持つ特徴が対応する決定に影響を及ぼさない可能性があることを示す。
論文 参考訳(メタデータ) (2020-01-21T09:58:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。