論文の概要: An Information-Theoretic Approach to Personalized Explainable Machine
Learning
- arxiv url: http://arxiv.org/abs/2003.00484v2
- Date: Sun, 15 Mar 2020 14:38:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-27 12:47:20.819062
- Title: An Information-Theoretic Approach to Personalized Explainable Machine
Learning
- Title(参考訳): パーソナライズされた説明可能な機械学習への情報理論的アプローチ
- Authors: Alexander Jung and Pedro H. J. Nardelli
- Abstract要約: 本稿では,予測とユーザ知識のための簡易確率モデルを提案する。
説明と予測の間の条件付き相互情報による説明の効果を定量化する。
- 参考スコア(独自算出の注目度): 92.53970625312665
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Automated decision making is used routinely throughout our everyday life.
Recommender systems decide which jobs, movies, or other user profiles might be
interesting to us. Spell checkers help us to make good use of language. Fraud
detection systems decide if a credit card transactions should be verified more
closely. Many of these decision making systems use machine learning methods
that fit complex models to massive datasets. The successful deployment of
machine learning (ML) methods to many (critical) application domains crucially
depends on its explainability. Indeed, humans have a strong desire to get
explanations that resolve the uncertainty about experienced phenomena like the
predictions and decisions obtained from ML methods. Explainable ML is
challenging since explanations must be tailored (personalized) to individual
users with varying backgrounds. Some users might have received university-level
education in ML, while other users might have no formal training in linear
algebra. Linear regression with few features might be perfectly interpretable
for the first group but might be considered a black-box by the latter. We
propose a simple probabilistic model for the predictions and user knowledge.
This model allows to study explainable ML using information theory. Explaining
is here considered as the task of reducing the "surprise" incurred by a
prediction. We quantify the effect of an explanation by the conditional mutual
information between the explanation and prediction, given the user background.
- Abstract(参考訳): 自動意思決定は私たちの日常生活で日常的に使われます。
レコメンダシステムは、どのジョブ、映画、または他のユーザープロファイルが興味をそそられるかを決める。
スペルチェッカーは言語をうまく利用するのに役立ちます。
不正検出システムは、クレジットカード取引をより詳しく検証すべきかどうかを判断する。
これらの意思決定システムの多くは、大規模データセットに複雑なモデルに適合する機械学習手法を使用している。
機械学習(ML)メソッドの多くの(クリティカルな)アプリケーションドメインへのデプロイの成功は、その説明可能性に大きく依存する。
実際、人間はML法から得られる予測や決定のような経験的な現象の不確実性を解決するための説明を強く求めている。
説明可能なmlは、背景の異なる個々のユーザに対して説明をカスタマイズ(パーソナライズ)する必要があるため、難しい。
mlで大学レベルの教育を受けたユーザもいれば、線形代数の正式なトレーニングを受けていないユーザもいる。
少数の特徴を持つ線形回帰は第一群に対して完全に解釈可能であるが、後者ではブラックボックスと見なされる。
予測とユーザ知識のための単純な確率モデルを提案する。
このモデルは情報理論を用いて説明可能なMLを研究することができる。
ここでは、予測によって生じる「サプライズ」を減らすタスクとして説明する。
ユーザ背景を考慮した説明と予測の条件付き相互情報による説明の効果を定量化する。
関連論文リスト
- Pyreal: A Framework for Interpretable ML Explanations [51.14710806705126]
Pyrealは、さまざまな解釈可能な機械学習説明を生成するシステムである。
Pyrealは、モデルによって期待される機能空間、関連する説明アルゴリズム、および人間のユーザ間でデータと説明を変換する。
我々の研究は、Pyrealが既存のシステムよりも有用な説明を生成することを示した。
論文 参考訳(メタデータ) (2023-12-20T15:04:52Z) - Democratizing Reasoning Ability: Tailored Learning from Large Language
Model [97.4921006089966]
そこで我々は,そのような推論能力をより小さなLMに蒸留する,適切な学習手法を提案する。
対話型多ラウンド学習パラダイムを構築することにより,理科教員としてのLLMの可能性を活用する。
より小さなLMの推論可能性を活用するために,学生が自作ミスから学習する動機付けを目的とした自己回帰学習を提案する。
論文 参考訳(メタデータ) (2023-10-20T07:50:10Z) - Ticketed Learning-Unlearning Schemes [57.89421552780526]
そこで我々は,学習のためのチケット付きモデルを提案する。
広義のコンセプトクラスに対して,空間効率のよいチケット付き学習スキームを提供する。
論文 参考訳(メタデータ) (2023-06-27T18:54:40Z) - Reason to explain: Interactive contrastive explanations (REASONX) [5.156484100374058]
制約論理プログラミング(CLP)に基づく説明ツールREASONXについて述べる。
REASONXは、背景知識によって拡張できる対話的な対照的な説明を提供する。
実例と論証的決定ルールを計算し、最も近い論証的な例を出力する。
論文 参考訳(メタデータ) (2023-05-29T15:13:46Z) - Learning to Scaffold: Optimizing Model Explanations for Teaching [74.25464914078826]
我々は3つの自然言語処理とコンピュータビジョンタスクのモデルを訓練する。
筆者らは,本フレームワークで抽出した説明文を学習した学生が,従来の手法よりもはるかに効果的に教師をシミュレートできることを発見した。
論文 参考訳(メタデータ) (2022-04-22T16:43:39Z) - Supervised Machine Learning with Plausible Deniability [1.685485565763117]
機械学習(ML)モデルが、特定のデータセットでトレーニングされたモデルが、トレーニングデータに対してどの程度のプライバシを提供するか、という問題について検討する。
我々は、純粋にランダムなトレーニングデータの集合を取ることができ、そこから、ちょうど$f$のMLモデルを生成する'適切な学習ルール'を定義することができることを示す。
論文 参考訳(メタデータ) (2021-06-08T11:54:51Z) - On Interpretability and Similarity in Concept-Based Machine Learning [2.3986080077861787]
本稿では,協調ゲーム理論の概念を用いて,概念ベース機械学習における分類・クラスタリングプロセスにおける個々の属性の寄与を評価する方法について論じる。
第3の質問に対処するために、大きなコンテキストにおける類似性を用いて属性数を減らす方法を提案する。
論文 参考訳(メタデータ) (2021-02-25T07:57:28Z) - Teaching the Machine to Explain Itself using Domain Knowledge [4.462334751640166]
非技術的人間-ループは、モデル予測の背後にある理論的根拠を理解するのに苦労する。
本稿では、意思決定タスクと関連する説明を共同で学習するニューラルネットワークベースのフレームワークJOELを提案する。
認定された専門家のプールからドメインフィードバックを収集し、それをモデル(人間の教え)を改善するために利用します。
論文 参考訳(メタデータ) (2020-11-27T18:46:34Z) - Explainable Empirical Risk Minimization [0.6299766708197883]
機械学習(ML)の手法が成功すると、解釈可能性や説明可能性にますます依存するようになる。
本稿では、情報理論の概念を適用し、ML法による予測の主観的説明可能性のための新しい尺度を開発する。
我々の主な貢献は、主観的説明可能性とリスクを最適にバランスする仮説を学ぶための説明可能な経験的リスク最小化(EERM)原理である。
論文 参考訳(メタデータ) (2020-09-03T07:16:34Z) - The Information Bottleneck Problem and Its Applications in Machine
Learning [53.57797720793437]
近年,機械学習システムの推論能力が急上昇し,社会の様々な側面において重要な役割を担っている。
情報ボトルネック(IB)理論は、ディープラーニング(DL)システムを分析するための大胆な情報理論パラダイムとして登場した。
本チュートリアルでは,この抽象原理の情報理論的起源と最近のDLへの影響について考察する。
論文 参考訳(メタデータ) (2020-04-30T16:48:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。