論文の概要: Explainable Empirical Risk Minimization
- arxiv url: http://arxiv.org/abs/2009.01492v3
- Date: Fri, 1 Jul 2022 16:38:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-22 06:57:47.399076
- Title: Explainable Empirical Risk Minimization
- Title(参考訳): 説明可能な経験的リスク最小化
- Authors: L. Zhang, G. Karakasidis, A. Odnoblyudova, L. Dogruel, A. Jung
- Abstract要約: 機械学習(ML)の手法が成功すると、解釈可能性や説明可能性にますます依存するようになる。
本稿では、情報理論の概念を適用し、ML法による予測の主観的説明可能性のための新しい尺度を開発する。
我々の主な貢献は、主観的説明可能性とリスクを最適にバランスする仮説を学ぶための説明可能な経験的リスク最小化(EERM)原理である。
- 参考スコア(独自算出の注目度): 0.6299766708197883
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The successful application of machine learning (ML) methods becomes
increasingly dependent on their interpretability or explainability. Designing
explainable ML systems is instrumental to ensuring transparency of automated
decision-making that targets humans. The explainability of ML methods is also
an essential ingredient for trustworthy artificial intelligence. A key
challenge in ensuring explainability is its dependence on the specific human
user ("explainee"). The users of machine learning methods might have vastly
different background knowledge about machine learning principles. One user
might have a university degree in machine learning or related fields, while
another user might have never received formal training in high-school
mathematics. This paper applies information-theoretic concepts to develop a
novel measure for the subjective explainability of the predictions delivered by
a ML method. We construct this measure via the conditional entropy of
predictions, given a user feedback. The user feedback might be obtained from
user surveys or biophysical measurements. Our main contribution is the
explainable empirical risk minimization (EERM) principle of learning a
hypothesis that optimally balances between the subjective explainability and
risk. The EERM principle is flexible and can be combined with arbitrary machine
learning models. We present several practical implementations of EERM for
linear models and decision trees. Numerical experiments demonstrate the
application of EERM to detecting the use of inappropriate language on social
media.
- Abstract(参考訳): 機械学習(ML)手法が成功すると、解釈可能性や説明可能性にますます依存するようになる。
説明可能なMLシステムの設計は、人間をターゲットにした自動意思決定の透明性を確保するのに役立つ。
ML手法の説明可能性もまた、信頼できる人工知能にとって重要な要素である。
説明可能性を確保する上で重要な課題は、特定のユーザーに依存することである("explainee")。
機械学習のやり方のユーザは、機械学習の原則に関する背景知識がかなり違うかもしれない。
あるユーザーは機械学習や関連分野の学位を取得し、別のユーザーは高校数学の正式な訓練を受けなかったかもしれない。
本稿では、情報理論の概念を適用し、ML法による予測の主観的説明可能性を示す新しい尺度を開発する。
ユーザからのフィードバックに応じて,予測の条件付きエントロピーを用いてこの尺度を構築する。
ユーザからのフィードバックは、ユーザ調査やバイオ物理測定から得ることができる。
我々の主な貢献は、主観的説明可能性とリスクを最適にバランスする仮説を学ぶための説明可能な経験的リスク最小化(EERM)原理である。
EERMの原則は柔軟性があり、任意の機械学習モデルと組み合わせることができる。
本稿では,線形モデルと決定木に対するEERMの実践的実装について述べる。
数値実験により,ソーシャルメディアにおける不適切な言語検出へのeermの適用が実証された。
関連論文リスト
- Evaluating the Utility of Model Explanations for Model Development [54.23538543168767]
機械学習モデル構築の実践シナリオにおいて、説明が人間の意思決定を改善するかどうかを評価する。
驚いたことに、サリエンシマップが提供されたとき、タスクが大幅に改善されたという証拠は見つからなかった。
以上の結果から,サリエンシに基づく説明における誤解の可能性と有用性について注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T23:13:23Z) - Evaluating Explainability in Machine Learning Predictions through Explainer-Agnostic Metrics [0.0]
我々は,モデル予測が説明できる範囲を定量化するために,6つの異なるモデルに依存しないメトリクスを開発した。
これらのメトリクスは、局所的な重要性、グローバルな重要性、代理予測など、モデル説明可能性のさまざまな側面を測定する。
分類と回帰タスクにおけるこれらのメトリクスの実用性を実証し、これらのメトリクスを公開のために既存のPythonパッケージに統合する。
論文 参考訳(メタデータ) (2023-02-23T15:28:36Z) - One-way Explainability Isn't The Message [2.618757282404254]
この文脈における人間と機械の両方の要件は、かなり異なると我々は主張する。
このようなヒューマン・マシン・システムの設計は、情報の2方向の繰り返しの可視性によって駆動されるべきである。
我々は、協調的な意思決定支援システムの設計を導くために、運用原則、すなわち、知性公理(Intelligibility Axioms)を提案します。
論文 参考訳(メタデータ) (2022-05-05T09:15:53Z) - Self-directed Machine Learning [86.3709575146414]
教育科学において、自己指導型学習は受動的教師指導型学習よりも効果的であることが示されている。
本稿では,自己指向機械学習(SDML)の基本概念を紹介し,SDMLのためのフレームワークを提案する。
提案したSDMLプロセスは,自己タスク選択,自己データ選択,自己モデル選択,自己最適化戦略選択,自己評価基準選択の恩恵を受ける。
論文 参考訳(メタデータ) (2022-01-04T18:32:06Z) - An Objective Metric for Explainable AI: How and Why to Estimate the
Degree of Explainability [3.04585143845864]
本稿では, 客観的手法を用いて, 正しい情報のeX説明可能性の度合いを測定するための, モデルに依存しない新しい指標を提案する。
私たちは、医療とファイナンスのための2つの現実的なAIベースのシステムについて、いくつかの実験とユーザースタディを設計しました。
論文 参考訳(メタデータ) (2021-09-11T17:44:13Z) - Towards Model-informed Precision Dosing with Expert-in-the-loop Machine
Learning [0.0]
モデル学習ループに人的専門家を取り入れることで、モデル学習を加速し、解釈可能性を向上させるMLフレームワークを検討する。
本稿では,データアノテーションのコストが高い学習問題に対処することを目的とした,新たなヒューマン・イン・ザ・ループMLフレームワークを提案する。
精度測定への応用により,本手法はデータから解釈可能なルールを学習し,専門家の作業負荷を低減できる可能性が示唆された。
論文 参考訳(メタデータ) (2021-06-28T03:45:09Z) - Leap-Of-Thought: Teaching Pre-Trained Models to Systematically Reason
Over Implicit Knowledge [96.92252296244233]
大規模な事前学習言語モデル(LM)は推論能力を得るが、制御は困難である。
本研究では,暗黙的,事前学習された知識と明示的な自然言語文を併用して,体系的推論を確実に行うことができることを示す。
我々の研究は、シンプルな自然言語文を追加することで、モデルを簡単に修正できるユーザと対話することで、常に改善されるオープンドメインシステムへの道を開く。
論文 参考訳(メタデータ) (2020-06-11T17:02:20Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z) - An Information-Theoretic Approach to Personalized Explainable Machine
Learning [92.53970625312665]
本稿では,予測とユーザ知識のための簡易確率モデルを提案する。
説明と予測の間の条件付き相互情報による説明の効果を定量化する。
論文 参考訳(メタデータ) (2020-03-01T13:06:29Z) - Explainable Active Learning (XAL): An Empirical Study of How Local
Explanations Impact Annotator Experience [76.9910678786031]
本稿では、最近急増している説明可能なAI(XAI)のテクニックをアクティブラーニング環境に導入することにより、説明可能なアクティブラーニング(XAL)の新たなパラダイムを提案する。
本研究は,機械教育のインタフェースとしてのAI説明の利点として,信頼度校正を支援し,リッチな形式の教示フィードバックを可能にすること,モデル判断と認知作業負荷による潜在的な欠点を克服する効果を示す。
論文 参考訳(メタデータ) (2020-01-24T22:52:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。