論文の概要: What Makes a Good Explanation?: A Harmonized View of Properties of Explanations
- arxiv url: http://arxiv.org/abs/2211.05667v3
- Date: Fri, 12 Jul 2024 15:34:29 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-16 06:06:24.261340
- Title: What Makes a Good Explanation?: A Harmonized View of Properties of Explanations
- Title(参考訳): 良い説明とは何か:説明の性質の調和した見方
- Authors: Zixi Chen, Varshini Subhash, Marton Havasi, Weiwei Pan, Finale Doshi-Velez,
- Abstract要約: 解釈可能性(Interpretability)は、機械学習(ML)モデルの側面を検証する手段を提供する。
異なる文脈は異なる性質を持つ説明を必要とする。
説明の性質に関しては標準化の欠如がある。
- 参考スコア(独自算出の注目度): 22.752085594102777
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Interpretability provides a means for humans to verify aspects of machine learning (ML) models and empower human+ML teaming in situations where the task cannot be fully automated. Different contexts require explanations with different properties. For example, the kind of explanation required to determine if an early cardiac arrest warning system is ready to be integrated into a care setting is very different from the type of explanation required for a loan applicant to help determine the actions they might need to take to make their application successful. Unfortunately, there is a lack of standardization when it comes to properties of explanations: different papers may use the same term to mean different quantities, and different terms to mean the same quantity. This lack of a standardized terminology and categorization of the properties of ML explanations prevents us from both rigorously comparing interpretable machine learning methods and identifying what properties are needed in what contexts. In this work, we survey properties defined in interpretable machine learning papers, synthesize them based on what they actually measure, and describe the trade-offs between different formulations of these properties. In doing so, we enable more informed selection of task-appropriate formulations of explanation properties as well as standardization for future work in interpretable machine learning.
- Abstract(参考訳): 解釈可能性(Interpretability)は、人間が機械学習(ML)モデルの側面を検証する手段を提供し、タスクを完全に自動化できない状況において、人間とMLのコラボレーションを強化する。
異なる文脈は異なる性質を持つ説明を必要とする。
例えば、早期の心停止警告システムがケア環境に統合される準備ができているかを決定するのに必要な説明の種類は、ローン申請者がアプリケーションを成功させるために必要なアクションを決定するのに必要な説明の種類とは大きく異なります。
残念ながら、説明の性質に関して、標準化の欠如がある:異なる論文は、同じ用語を異なる量を意味するために、異なる用語を同じ量を意味するために使用する。
この標準化された用語の欠如とML説明の性質の分類は、解釈可能な機械学習手法を厳格に比較することと、どの文脈でどの特性が必要なのかを識別することの両方を妨げます。
本研究では、解釈可能な機械学習論文で定義された特性を調査し、実際に測定したものに基づいてそれらを合成し、それらの特性の異なる定式化間のトレードオフを記述する。
そこで我々は,タスクに適した説明属性の定式化や,解釈可能な機械学習における今後の作業の標準化について,より情報的な選択を可能にする。
関連論文リスト
- Complementary Explanations for Effective In-Context Learning [77.83124315634386]
大規模言語モデル (LLM) は、説明のインプロンプトから学習する際、顕著な能力を示した。
この研究は、文脈内学習に説明が使用されるメカニズムをよりよく理解することを目的としている。
論文 参考訳(メタデータ) (2022-11-25T04:40:47Z) - Feature Necessity & Relevancy in ML Classifier Explanations [5.232306238197686]
機械学習(ML)モデルと予測が与えられた場合、説明は予測に十分な機能のセットとして定義することができる。
また、ある説明においてセンシティブな特徴が生じるのか、またはすべての説明において興味のない特徴が生じる必要があるのかを理解することも重要である。
論文 参考訳(メタデータ) (2022-10-27T12:12:45Z) - Studying the explanations for the automated prediction of bug and
non-bug issues using LIME and SHAP [7.792303263390021]
機械学習モデルが、人間として私たちにとって妥当な分類の説明を提供するかどうかを理解したい。
また、予測品質が説明の質と相関しているかどうかも知りたい。
論文 参考訳(メタデータ) (2022-09-15T21:45:46Z) - The Need for Interpretable Features: Motivation and Taxonomy [69.07189753428553]
我々は、「解釈可能な特徴」という用語は、機械学習の説明の有用性に影響を与える機能の全範囲を捉えるのに十分な具体的あるいは詳細ではないと主張している。
本稿では,(1)解釈可能な機能空間と呼ぶもの,あるいはドメインの専門家が現実の行動を取る上で有用な機能の現状に,より注意を払わなければならない,という3つの重要な教訓を論じる。
論文 参考訳(メタデータ) (2022-02-23T19:19:14Z) - Human Interpretation of Saliency-based Explanation Over Text [65.29015910991261]
テキストデータ上でのサリエンシに基づく説明について検討する。
人はしばしば説明を誤って解釈する。
本稿では,過度知覚と過小認識のモデル推定に基づいて,サリエンシを調整する手法を提案する。
論文 参考訳(メタデータ) (2022-01-27T15:20:32Z) - Properties from Mechanisms: An Equivariance Perspective on Identifiable
Representation Learning [79.4957965474334]
教師なし表現学習の主な目標は、データ生成プロセスが潜在プロパティを回復するために「反転」することである。
この論文は「進化を支配するメカニズムの知識を活用して潜伏特性を識別するのか?」と問う。
我々は、可能なメカニズムの集合に関する知識が異なるため、不特定性の原因の完全な特徴づけを提供する。
論文 参考訳(メタデータ) (2021-10-29T14:04:08Z) - Contrastive Explanations for Model Interpretability [77.92370750072831]
分類モデルの対照的説明を生成する手法を提案する。
本手法は潜在空間へのモデル表現の投影に基づいている。
本研究は,モデル決定のより正確できめ細かな解釈性を提供するためのラベルコントラスト的説明の能力に光を当てた。
論文 参考訳(メタデータ) (2021-03-02T00:36:45Z) - On Interpretability and Similarity in Concept-Based Machine Learning [2.3986080077861787]
本稿では,協調ゲーム理論の概念を用いて,概念ベース機械学習における分類・クラスタリングプロセスにおける個々の属性の寄与を評価する方法について論じる。
第3の質問に対処するために、大きなコンテキストにおける類似性を用いて属性数を減らす方法を提案する。
論文 参考訳(メタデータ) (2021-02-25T07:57:28Z) - Dependency Decomposition and a Reject Option for Explainable Models [4.94950858749529]
近年のディープラーニングモデルは様々な推論タスクにおいて非常によく機能する。
最近の進歩は特徴を視覚化し、入力の属性を記述する方法を提供します。
本稿では, 目的の画像分類出力に対する確率分布に関する依存性を初めて解析する。
論文 参考訳(メタデータ) (2020-12-11T17:39:33Z) - Towards Unifying Feature Attribution and Counterfactual Explanations:
Different Means to the Same End [17.226134854746267]
本稿では,一組の反実例から特徴帰属説明を生成する手法を提案する。
本報告では, 帰属に基づく説明の妥当性を, その必要性と充足性の観点から評価するために, 対実例をいかに活用するかを示す。
論文 参考訳(メタデータ) (2020-11-10T05:41:43Z) - An Information-Theoretic Approach to Personalized Explainable Machine
Learning [92.53970625312665]
本稿では,予測とユーザ知識のための簡易確率モデルを提案する。
説明と予測の間の条件付き相互情報による説明の効果を定量化する。
論文 参考訳(メタデータ) (2020-03-01T13:06:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。