論文の概要: Statistics without Interpretation: A Sober Look at Explainable Machine
Learning
- arxiv url: http://arxiv.org/abs/2402.02870v1
- Date: Mon, 5 Feb 2024 10:36:48 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-06 17:00:51.872416
- Title: Statistics without Interpretation: A Sober Look at Explainable Machine
Learning
- Title(参考訳): 解釈のない統計: 説明可能な機械学習について
- Authors: Sebastian Bordt, Ulrike von Luxburg
- Abstract要約: 説明アルゴリズムはしばしば数学的に複雑であるが、明確な解釈は認めない。
説明アルゴリズムの論文は、アルゴリズムの出力がどの程度正確に解釈されるべきかを明確にする必要がある。
- 参考スコア(独自算出の注目度): 11.993040038930896
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the rapidly growing literature on explanation algorithms, it often remains
unclear what precisely these algorithms are for and how they should be used. We
argue that this is because explanation algorithms are often mathematically
complex but don't admit a clear interpretation. Unfortunately, complex
statistical methods that don't have a clear interpretation are bound to lead to
errors in interpretation, a fact that has become increasingly apparent in the
literature. In order to move forward, papers on explanation algorithms should
make clear how precisely the output of the algorithms should be interpreted.
They should also clarify what questions about the function can and cannot be
answered given the explanations. Our argument is based on the distinction
between statistics and their interpretation. It also relies on parallels
between explainable machine learning and applied statistics.
- Abstract(参考訳): 説明アルゴリズムに関する急速に成長している文献では、これらのアルゴリズムが何のために、どのように使われるべきかはよく分かっていない。
これは、説明アルゴリズムはしばしば数学的に複雑であるが明確な解釈は認めていないためであると主張する。
あいにく、明確な解釈を持たない複雑な統計的手法は解釈の誤りに結びつくことになり、この事実は文学においてますます明らかになっている。
前進するために、説明アルゴリズムに関する論文は、アルゴリズムの出力がどの程度正確に解釈されるべきかを明確にするべきである。
また、これらの説明により、機能に関する質問に何ができるのか、答えられないのかを明確にする必要がある。
我々の議論は統計学と解釈の区別に基づいている。
また、説明可能な機械学習と応用統計の並列性にも依存している。
関連論文リスト
- From Model Explanation to Data Misinterpretation: Uncovering the Pitfalls of Post Hoc Explainers in Business Research [3.7209396288545338]
ビジネス研究では、データに関する推論にポストホックな説明が使われる傾向が増えている。
この論文の最終的な目標は、機械学習モデルのポストホックな説明を、潜在的に誤った洞察とデータの理解に翻訳しないように、ビジネス研究者に警告することである。
論文 参考訳(メタデータ) (2024-08-30T03:22:35Z) - Machine learning and information theory concepts towards an AI
Mathematician [77.63761356203105]
人工知能の現在の最先端技術は、特に言語習得の点で印象的だが、数学的推論の点ではあまり重要ではない。
このエッセイは、現在のディープラーニングが主にシステム1の能力で成功するという考えに基づいている。
興味深い数学的ステートメントを構成するものについて質問するために、情報理論的な姿勢を取る。
論文 参考訳(メタデータ) (2024-03-07T15:12:06Z) - Visual Abductive Reasoning [85.17040703205608]
帰納的推論は、部分的な観察の可能な限りの可能な説明を求める。
本稿では,日常的な視覚的状況下でのマシンインテリジェンスの帰納的推論能力を調べるために,新たなタスクとデータセットであるVisual Abductive Reasoning(VAR)を提案する。
論文 参考訳(メタデータ) (2022-03-26T10:17:03Z) - Why Machine Learning Cannot Ignore Maximum Likelihood Estimation [1.7056768055368383]
分野としての機械学習の成長は、分野全体の関心や出版物の増加とともに加速している。
ここでは、機械学習が機能的パラメータ推定の最大可能性を統合することが重要なアイデアである、と断言する。
論文 参考訳(メタデータ) (2021-10-23T01:57:40Z) - Counterfactual Instances Explain Little [7.655239948659383]
機械学習システムの意思決定を説明することは重要である。
益々人気が高まっているアプローチは、実例の説明を提供することである。
本論では, 十分な説明は, 因果方程式と反実例の両方から成り立たなければならないと論じる。
論文 参考訳(メタデータ) (2021-09-20T19:40:25Z) - Individual Explanations in Machine Learning Models: A Case Study on
Poverty Estimation [63.18666008322476]
機械学習の手法は、敏感な社会的文脈でますます適用されつつある。
本研究の主な目的は2つある。
まず、これらの課題を公開し、関連性のある新しい説明方法の使用にどのように影響するか。
次に、関連するアプリケーションドメインで説明メソッドを実装する際に直面するような課題を軽減する一連の戦略を提示します。
論文 参考訳(メタデータ) (2021-04-09T01:54:58Z) - This is not the Texture you are looking for! Introducing Novel
Counterfactual Explanations for Non-Experts using Generative Adversarial
Learning [59.17685450892182]
反実用説明システムは、入力画像を変更して反実用推論を可能にする。
本稿では, 対向画像から画像への変換技術に基づく, 対向画像の説明を新たに生成する手法を提案する。
その結果,我々のアプローチは,2つの最先端技術システムよりも,メンタルモデル,説明満足度,信頼度,感情,自己効力に関して有意に優れた結果をもたらすことがわかった。
論文 参考訳(メタデータ) (2020-12-22T10:08:05Z) - Interpretability and Explainability: A Machine Learning Zoo Mini-tour [4.56877715768796]
解釈可能性と説明可能性は、医学、経済学、法学、自然科学における多くの機械学習および統計応用の中核にある。
本稿では,解釈可能性と説明可能性の相違を強調し,これら2つの研究方向について,その具体例を示す。
論文 参考訳(メタデータ) (2020-12-03T10:11:52Z) - High-dimensional inference: a statistical mechanics perspective [11.532173708183166]
統計的推論は、データから何らかのシステムに関する結論を導き出す科学である。
現在、推論と統計物理学の間には多くの関係があることは明らかである。
この記事は、イタリアの科学雑誌「イタカ」の人工知能に関する号に掲載されている。
論文 参考訳(メタデータ) (2020-10-28T10:17:21Z) - Explainability in Deep Reinforcement Learning [68.8204255655161]
説明可能な強化学習(XRL)の実現に向けての最近の成果を概観する。
エージェントの振る舞いを正当化し、説明することが不可欠である重要な状況において、RLモデルのより良い説明可能性と解釈性は、まだブラックボックスと見なされているものの内部動作に関する科学的洞察を得るのに役立つ。
論文 参考訳(メタデータ) (2020-08-15T10:11:42Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。