論文の概要: HEX: Human-in-the-loop Explainability via Deep Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2206.01343v1
- Date: Thu, 2 Jun 2022 23:53:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-07 03:32:44.421143
- Title: HEX: Human-in-the-loop Explainability via Deep Reinforcement Learning
- Title(参考訳): hex:深層強化学習によるヒューマン・イン・ザ・ループ説明可能性
- Authors: Michael T. Lash
- Abstract要約: 我々は、機械学習説明可能性(MLX)に対するHEX(Human-in-the-loop Deep reinforcement learning approach)を提案する。
我々の定式化は、基礎となるトレーニングデータではなく、問題となるMLモデルの決定境界を明示的に考慮している。
提案手法は,限られたデータシナリオで使用するために問題となるモデルの決定境界を明示的にキャプチャするHITL MLXポリシーを合成する。
- 参考スコア(独自算出の注目度): 2.322461721824713
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The use of machine learning (ML) models in decision-making contexts,
particularly those used in high-stakes decision-making, are fraught with issue
and peril since a person - not a machine - must ultimately be held accountable
for the consequences of the decisions made using such systems. Machine learning
explainability (MLX) promises to provide decision-makers with
prediction-specific rationale, assuring them that the model-elicited
predictions are made for the right reasons and are thus reliable. Few works
explicitly consider this key human-in-the-loop (HITL) component, however. In
this work we propose HEX, a human-in-the-loop deep reinforcement learning
approach to MLX. HEX incorporates 0-distrust projection to synthesize decider
specific explanation-providing policies from any arbitrary classification
model. HEX is also constructed to operate in limited or reduced training data
scenarios, such as those employing federated learning. Our formulation
explicitly considers the decision boundary of the ML model in question, rather
than the underlying training data, which is a shortcoming of many
model-agnostic MLX methods. Our proposed methods thus synthesize HITL MLX
policies that explicitly capture the decision boundary of the model in question
for use in limited data scenarios.
- Abstract(参考訳): 意思決定コンテキストにおける機械学習(ml)モデルの使用、特にハイステイクな意思決定で使用されるものは、マシンではなく、最終的にそのようなシステムを用いた決定の結果に責任を負わなければならないため、問題と危機に陥っている。
機械学習の説明可能性(MLX)は、意思決定者に予測固有の理論的根拠を提供することを約束する。
しかし、この重要なHuman-in-the-loop (HITL)コンポーネントを明示的に考慮する作業はほとんどない。
本研究では,MLXの深層強化学習手法であるHEXを提案する。
HEXは、任意の分類モデルから決定者固有の説明提供ポリシーを合成するために、0不信射影を取り入れている。
HEXは、フェデレート学習など、限られたまたは少ないトレーニングデータシナリオで動作するように構築されている。
我々の定式化は、多くのモデルに依存しないMLX手法の欠点である基礎となるトレーニングデータよりも、問題となるMLモデルの決定境界を明示的に考慮している。
提案手法は,限られたデータシナリオで使用するためのモデル決定境界を明示的にキャプチャするHITL MLXポリシーを合成する。
関連論文リスト
- Self-Healing Machine Learning: A Framework for Autonomous Adaptation in Real-World Environments [50.310636905746975]
実世界の機械学習システムは、基礎となるデータ生成プロセスの分散シフトによって、モデルの性能劣化に遭遇することが多い。
概念のドリフト適応のような既存のシフトへのアプローチは、その理性に依存しない性質によって制限される。
我々はこれらの制限を克服するために自己修復機械学習(SHML)を提案する。
論文 参考訳(メタデータ) (2024-10-31T20:05:51Z) - Modeling Boundedly Rational Agents with Latent Inference Budgets [56.24971011281947]
エージェントの計算制約を明示的にモデル化する潜在推論予算モデル(L-IBM)を導入する。
L-IBMは、最適なアクターの多様な集団のデータを使ってエージェントモデルを学ぶことができる。
我々は,L-IBMが不確実性の下での意思決定のボルツマンモデルに適合しているか,あるいは上回っていることを示す。
論文 参考訳(メタデータ) (2023-12-07T03:55:51Z) - Leaving the Nest: Going Beyond Local Loss Functions for
Predict-Then-Optimize [57.22851616806617]
本手法は,文献から得られた4つの領域において,最先端の成果が得られることを示す。
提案手法は, 局所性仮定が破られた場合, 既存手法よりも200%近く性能が向上する。
論文 参考訳(メタデータ) (2023-05-26T11:17:45Z) - A Meta-heuristic Approach to Estimate and Explain Classifier Uncertainty [0.4264192013842096]
本研究は,人間と機械学習の双方の意思決定に相互に関係する因子の観点から,インスタンスの複雑性を特徴付けるクラス非依存型メタヒューリスティックスを提案する。
提案された測度とフレームワークは、より複雑なインスタンスのモデル開発を改善するとともに、モデルの棄却と説明の新しい手段を提供するという約束を持っている。
論文 参考訳(メタデータ) (2023-04-20T13:09:28Z) - Use Perturbations when Learning from Explanations [51.19736333434313]
機械学習(英: Machine Learning from explanations、MLX)とは、入力ごとに関連する機能や無関係な機能について人間が提供する説明を用いて学習する手法である。
我々はMLXを問題として再考し、人間による説明は、ロバスト性を引き出すことができる低次元多様体を規定する。
我々は、ロバスト性を達成するための様々なアプローチを検討し、従来のMLX手法よりも性能が向上した。
論文 参考訳(メタデータ) (2023-03-11T14:57:52Z) - Prescriptive Machine Learning for Automated Decision Making: Challenges
and Opportunities [0.0]
機械学習(ML)の最近の応用は、予測モデリングでの使用から、規範モデリングでの使用への顕著なシフトを明らかにしている。
規範的モデリングには、学習のための新しい技術条件と、信頼性、責任、意思決定の倫理に関する新しい要求が伴う。
合理的かつ同時に責任ある方法で行動する意思決定エージェントのデータ駆動設計を支援するためには、規範的MLの厳密な方法論的基礎が必要である。
論文 参考訳(メタデータ) (2021-12-15T17:02:07Z) - SMACE: A New Method for the Interpretability of Composite Decision
Systems [3.1542695050861544]
決定システムのための新しい解釈可能性手法であるSMACE, Semi-Model-Agnostic Contextual Explainerを提案する。
確立されたモデルに依存しないアプローチが、このフレームワークで不十分な結果をもたらすことを示す。
論文 参考訳(メタデータ) (2021-11-16T19:37:35Z) - Leveraging Expert Consistency to Improve Algorithmic Decision Support [62.61153549123407]
建設のギャップを狭めるために観測結果と組み合わせることができる情報源として,歴史専門家による意思決定の利用について検討する。
本研究では,データ内の各ケースが1人の専門家によって評価された場合に,専門家の一貫性を間接的に推定する影響関数に基づく手法を提案する。
本研究は, 児童福祉領域における臨床現場でのシミュレーションと実世界データを用いて, 提案手法が構成ギャップを狭めることに成功していることを示す。
論文 参考訳(メタデータ) (2021-01-24T05:40:29Z) - Identification of Unexpected Decisions in Partially Observable
Monte-Carlo Planning: a Rule-Based Approach [78.05638156687343]
本稿では,POMCPポリシーをトレースを検査して分析する手法を提案する。
提案手法は, 政策行動の局所的特性を探索し, 予期せぬ決定を識別する。
我々は,POMDPの標準ベンチマークであるTigerに対するアプローチと,移動ロボットナビゲーションに関する現実の問題を評価した。
論文 参考訳(メタデータ) (2020-12-23T15:09:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。