論文の概要: Explainable Machine Learning for Public Policy: Use Cases, Gaps, and
Research Directions
- arxiv url: http://arxiv.org/abs/2010.14374v2
- Date: Thu, 4 Mar 2021 23:52:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-02 11:22:23.028174
- Title: Explainable Machine Learning for Public Policy: Use Cases, Gaps, and
Research Directions
- Title(参考訳): パブリックポリシーのための説明可能な機械学習: ユースケース、ギャップ、研究方向
- Authors: Kasun Amarasinghe, Kit Rodolfa, Hemank Lamba, Rayid Ghani
- Abstract要約: 公共政策問題における説明可能性利用事例の分類法を開発する。
我々は、説明のエンドユーザーを定義し、説明可能性の具体的目標を満たさなければならない。
既存の作業をこれらのユースケースにマッピングし、ギャップを特定し、それらのギャップを埋めるための研究の方向性を提案します。
- 参考スコア(独自算出の注目度): 6.68777133358979
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Explainability is a crucial requirement for effectiveness as well as the
adoption of Machine Learning (ML) models supporting decisions in high-stakes
public policy areas such as health, criminal justice, education, and
employment, While the field of explainable has expanded in recent years, much
of this work has not taken real-world needs into account. A majority of
proposed methods use benchmark datasets with generic explainability goals
without clear use-cases or intended end-users. As a result, the applicability
and effectiveness of this large body of theoretical and methodological work on
real-world applications is unclear. This paper focuses on filling this void for
the domain of public policy. We develop a taxonomy of explainability use-cases
within public policy problems; for each use-case, we define the end-users of
explanations and the specific goals explainability has to fulfill; third, we
map existing work to these use-cases, identify gaps, and propose research
directions to fill those gaps in order to have a practical societal impact
through ML.
- Abstract(参考訳): 説明可能性は、健康、刑事司法、教育、雇用といった公共政策分野における意思決定を支援する機械学習(ml)モデルの採用と同様に、有効性にとって重要な要件であると同時に、近年説明可能性の分野は拡大しているが、この研究の多くは現実世界のニーズを考慮していない。
提案手法の大部分は、明確なユースケースや意図したエンドユーザを使わずに、汎用的な説明可能性目標を持つベンチマークデータセットを使用する。
その結果, 実世界の応用における理論的, 方法論的研究の適用性や有効性は明らかでない。
本稿では、この空白を公共政策の領域に充足することに焦点を当てる。
我々は,公共政策問題における説明可能性ユースケースの分類を開発し,各ユースケースにおいて,説明のエンドユーザーを定義し,その具体的目標を達成しなければならない。第3に,既存の作業をこれらのユースケースにマッピングし,ギャップを特定し,それらのギャップを埋めて,MLを通じた実践的な社会的影響を得るための研究の方向性を提案する。
関連論文リスト
- Towards Coarse-to-Fine Evaluation of Inference Efficiency for Large Language Models [95.96734086126469]
大規模言語モデル(LLM)は、ユーザが仕事を達成するのを助けるアシスタントとして機能し、高度なアプリケーションの開発をサポートする。
LLMの幅広い応用にとって、推論効率は重要な問題であり、既存の研究で広く研究されている。
各種コードライブラリの推論性能の粗大な解析を行う。
論文 参考訳(メタデータ) (2024-04-17T15:57:50Z) - Techniques for Measuring the Inferential Strength of Forgetting Policies [0.3069335774032178]
本稿では,モデルカウントと確率論からの直感に基づく推論強度の変化を測定するための損失関数を定義する。
忘れることに重点を置いているが、結果はずっと一般的であり、他の分野にも広く適用されるべきである。
論文 参考訳(メタデータ) (2024-04-03T04:50:43Z) - From Understanding to Utilization: A Survey on Explainability for Large
Language Models [27.295767173801426]
この調査は、Large Language Models (LLMs) における説明可能性の向上を示唆している。
主に、トレーニング済みの Transformer ベースの LLM に重点を置いています。
説明可能性の活用を考える際に、モデル編集、制御生成、モデル拡張に集中するいくつかの魅力的な方法を検討する。
論文 参考訳(メタデータ) (2024-01-23T16:09:53Z) - Knowledge Plugins: Enhancing Large Language Models for Domain-Specific
Recommendations [50.81844184210381]
本稿では,大規模言語モデルをDOmain固有のKnowledgEで拡張し,実践的アプリケーション,すなわちDOKEの性能を向上させるためのパラダイムを提案する。
このパラダイムはドメイン知識抽出器に依存し,1)タスクに効果的な知識を準備すること,2)特定のサンプルごとに知識を選択すること,3)LLMで理解可能な方法で知識を表現すること,の3つのステップで動作する。
論文 参考訳(メタデータ) (2023-11-16T07:09:38Z) - Transparency challenges in policy evaluation with causal machine learning -- improving usability and accountability [0.0]
モデルがどのように見積を行うかを理解するには、グローバルに解釈可能な方法はない。
因果機械学習モデルが公正な方法で機能しているかどうかを理解するのは難しい。
本稿では,透明性の問題が公共政策評価アプリケーションにおける因果的機械学習の課題である理由を考察する。
論文 参考訳(メタデータ) (2023-10-20T02:48:29Z) - Unveiling the Potential of Counterfactuals Explanations in Employability [0.0]
本稿では,機械学習アルゴリズムに関わる雇用性関連問題に対して,その対策が適用可能であることを示す。
提示されたユースケースは、説明として反事実の応用以上のものだ。
論文 参考訳(メタデータ) (2023-05-17T09:13:53Z) - DisCo RL: Distribution-Conditioned Reinforcement Learning for
General-Purpose Policies [116.12670064963625]
分散条件強化学習(DisCo RL)と呼ばれるオフポリシーアルゴリズムを開発し、コンテキストポリシーを効率的に学習します。
DisCo RLをさまざまなロボット操作タスクで評価し、新しい目標分布への一般化を必要とするタスクの以前の方法を大幅に上回っていることを発見しました。
論文 参考訳(メタデータ) (2021-04-23T16:51:58Z) - Individual Explanations in Machine Learning Models: A Case Study on
Poverty Estimation [63.18666008322476]
機械学習の手法は、敏感な社会的文脈でますます適用されつつある。
本研究の主な目的は2つある。
まず、これらの課題を公開し、関連性のある新しい説明方法の使用にどのように影響するか。
次に、関連するアプリケーションドメインで説明メソッドを実装する際に直面するような課題を軽減する一連の戦略を提示します。
論文 参考訳(メタデータ) (2021-04-09T01:54:58Z) - Individual Explanations in Machine Learning Models: A Survey for
Practitioners [69.02688684221265]
社会的関連性の高い領域の決定に影響を与える洗練された統計モデルの使用が増加しています。
多くの政府、機関、企業は、アウトプットが人間の解釈可能な方法で説明しにくいため、採用に消極的です。
近年,機械学習モデルに解釈可能な説明を提供する方法として,学術文献が多数提案されている。
論文 参考訳(メタデータ) (2021-04-09T01:46:34Z) - Generalized Inverse Planning: Learning Lifted non-Markovian Utility for
Generalizable Task Representation [83.55414555337154]
本研究では,人間の実演からこのような有用性を学ぶことを研究する。
本稿では,本領域におけるユーティリティ学習のための新しい探索手法である一般化逆計画を提案する。
計算フレームワークである最大エントロピー逆計画(MEIP)について概説し、非マルコフ的効用と関連する概念を生成的に学習する。
論文 参考訳(メタデータ) (2020-11-12T21:06:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。