論文の概要: Explaining black boxes with a SMILE: Statistical Model-agnostic
Interpretability with Local Explanations
- arxiv url: http://arxiv.org/abs/2311.07286v1
- Date: Mon, 13 Nov 2023 12:28:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-14 14:22:23.837374
- Title: Explaining black boxes with a SMILE: Statistical Model-agnostic
Interpretability with Local Explanations
- Title(参考訳): SMILEを用いたブラックボックスの説明:局所説明を用いた統計的モデル非依存的解釈可能性
- Authors: Koorosh Aslansefat, Mojgan Hashemian, Martin Walker, Mohammed Naveed
Akram, Ioannis Sorokos, Yiannis Papadopoulos
- Abstract要約: 機械学習(ML)の広く受け入れられる大きな障壁の1つは、信頼性である。
ほとんどのMLモデルはブラックボックスとして機能し、内部の動作は不透明で神秘的であり、それらの結論がどのように達成されたかを理解することなく、それらの結論を信頼することは困難である。
SMILEは, 統計的距離測定を応用して, 説明可能性を向上させる手法として, 従来の手法に基づく新しい手法を提案する。
- 参考スコア(独自算出の注目度): 0.1398098625978622
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning is currently undergoing an explosion in capability,
popularity, and sophistication. However, one of the major barriers to
widespread acceptance of machine learning (ML) is trustworthiness: most ML
models operate as black boxes, their inner workings opaque and mysterious, and
it can be difficult to trust their conclusions without understanding how those
conclusions are reached. Explainability is therefore a key aspect of improving
trustworthiness: the ability to better understand, interpret, and anticipate
the behaviour of ML models. To this end, we propose SMILE, a new method that
builds on previous approaches by making use of statistical distance measures to
improve explainability while remaining applicable to a wide range of input data
domains.
- Abstract(参考訳): 機械学習は現在、能力、人気、洗練の爆発的な進歩を続けている。
しかし、機械学習(ML)の広く受け入れられる大きな障壁の1つは信頼性である。ほとんどのMLモデルはブラックボックスとして機能し、内部の動作は不透明で神秘的であり、それらの結論がどのように達成されたかを理解しずに彼らの結論を信頼することは困難である。
したがって、説明可能性は信頼性を向上させる上で重要な側面である: mlモデルの振る舞いをよりよく理解し、解釈し、予測する能力。
そこで本研究では,様々な入力データ領域に適用しながら,統計距離尺度を用いて説明可能性を向上させる新しい手法であるsmileを提案する。
関連論文リスト
- Cycles of Thought: Measuring LLM Confidence through Stable Explanations [53.15438489398938]
大規模言語モデル(LLM)は、様々なベンチマークで人間レベルの精度に到達し、さらに超えることができるが、不正確な応答における過度な自信は、依然として十分に文書化された障害モードである。
本稿では,LLMの不確実性を測定するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-05T16:35:30Z) - Explainability for Large Language Models: A Survey [59.67574757137078]
大規模言語モデル(LLM)は、自然言語処理における印象的な能力を示している。
本稿では,トランスフォーマーに基づく言語モデルを記述する手法について,説明可能性の分類法を紹介した。
論文 参考訳(メタデータ) (2023-09-02T22:14:26Z) - Evaluating and Explaining Large Language Models for Code Using Syntactic
Structures [74.93762031957883]
本稿では,コード用大規模言語モデルに特有の説明可能性手法であるASTxplainerを紹介する。
その中核にあるASTxplainerは、トークン予測をASTノードに整合させる自動メソッドを提供する。
私たちは、最も人気のあるGitHubプロジェクトのキュレートデータセットを使用して、コード用の12の人気のあるLLMに対して、実証的な評価を行います。
論文 参考訳(メタデータ) (2023-08-07T18:50:57Z) - Accountable and Explainable Methods for Complex Reasoning over Text [5.571369922847262]
機械学習モデルのアカウンタビリティと透明性は、政策、法学、哲学、計算機科学の研究によって決定的なデシダータとして位置づけられている。
この論文は、テキストによる複雑な推論タスクのために開発されたMLモデルの説明責任と透明性に関する知識を拡大する。
論文 参考訳(メタデータ) (2022-11-09T15:14:52Z) - Shapelet-Based Counterfactual Explanations for Multivariate Time Series [0.9990687944474738]
我々は,モデル非依存多変量時系列(MTS)の対実的説明アルゴリズムを開発した。
我々は、実生活の太陽フレア予測データセット上で、我々のアプローチを検証し、我々のアプローチが高品質な反事実を生み出すことを証明した。
視覚的に解釈可能であることに加えて、我々の説明は近接性、疎性、そして妥当性の点で優れている。
論文 参考訳(メタデータ) (2022-08-22T17:33:31Z) - Interpretation of Black Box NLP Models: A Survey [0.0]
摂動に基づくポストホックの説明は、機械学習モデルの構築後に解釈するために広く使われているアプローチである。
本稿では,中心極限定理に基づく仮説テストフレームワークを用いて,解析結果の安定性を保証するのに必要な摂動点数を決定することを提案する。
論文 参考訳(メタデータ) (2022-03-31T14:54:35Z) - Hessian-based toolbox for reliable and interpretable machine learning in
physics [58.720142291102135]
本稿では,モデルアーキテクチャの解釈可能性と信頼性,外挿を行うためのツールボックスを提案する。
与えられたテストポイントでの予測に対する入力データの影響、モデル予測の不確実性の推定、およびモデル予測の不可知スコアを提供する。
我々の研究は、物理学やより一般的には科学に適用されたMLにおける解釈可能性と信頼性の方法の体系的利用への道を開く。
論文 参考訳(メタデータ) (2021-08-04T16:32:59Z) - S-LIME: Stabilized-LIME for Model Explanation [7.479279851480736]
摂動に基づくポストホックの説明は、機械学習モデルの構築後に解釈するために広く使われているアプローチである。
本稿では,中心極限定理に基づく仮説テストフレームワークを用いて,解析結果の安定性を保証するのに必要な摂動点数を決定することを提案する。
論文 参考訳(メタデータ) (2021-06-15T04:24:59Z) - Accurate and Robust Feature Importance Estimation under Distribution
Shifts [49.58991359544005]
PRoFILEは、新しい特徴重要度推定法である。
忠実さと頑健さの両面で、最先端のアプローチよりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-09-30T05:29:01Z) - Transfer Learning without Knowing: Reprogramming Black-box Machine
Learning Models with Scarce Data and Limited Resources [78.72922528736011]
そこで我々は,ブラックボックス・アタベラル・リプログラミング (BAR) という新しい手法を提案する。
ゼロオーダー最適化とマルチラベルマッピング技術を用いて、BARは入力出力応答のみに基づいてブラックボックスMLモデルをプログラムする。
BARは最先端の手法より優れ、バニラ対逆プログラミング法に匹敵する性能を得る。
論文 参考訳(メタデータ) (2020-07-17T01:52:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。