論文の概要: Local and Global Explainability Metrics for Machine Learning Predictions
- arxiv url: http://arxiv.org/abs/2302.12094v1
- Date: Thu, 23 Feb 2023 15:28:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-24 14:38:23.317362
- Title: Local and Global Explainability Metrics for Machine Learning Predictions
- Title(参考訳): 機械学習予測のための局所的およびグローバル的説明可能性指標
- Authors: Cristian Munoz, Kleyton da Costa, Bernardo Modenesi, Adriano Koshiyama
- Abstract要約: 本稿では,機械学習モデルの予測を解釈するための新しい定量的メトリクスフレームワークを提案する。
提案するメトリクスはモデル非依存であり、定量化するために定義される。
結果は、これらのメトリクスがどのようにモデル予測をより包括的に理解することができるかを明らかにする。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Rapid advancements in artificial intelligence (AI) technology have brought
about a plethora of new challenges in terms of governance and regulation. AI
systems are being integrated into various industries and sectors, creating a
demand from decision-makers to possess a comprehensive and nuanced
understanding of the capabilities and limitations of these systems. One
critical aspect of this demand is the ability to explain the results of machine
learning models, which is crucial to promoting transparency and trust in AI
systems, as well as fundamental in helping machine learning models to be
trained ethically. In this paper, we present novel quantitative metrics
frameworks for interpreting the predictions of classifier and regressor models.
The proposed metrics are model agnostic and are defined in order to be able to
quantify: i. the interpretability factors based on global and local feature
importance distributions; ii. the variability of feature impact on the model
output; and iii. the complexity of feature interactions within model decisions.
We employ publicly available datasets to apply our proposed metrics to various
machine learning models focused on predicting customers' credit risk
(classification task) and real estate price valuation (regression task). The
results expose how these metrics can provide a more comprehensive understanding
of model predictions and facilitate better communication between
decision-makers and stakeholders, thereby increasing the overall transparency
and accountability of AI systems.
- Abstract(参考訳): 人工知能(AI)技術の急速な進歩は、ガバナンスと規制という面で、多くの新しい課題をもたらした。
aiシステムは様々な産業やセクターに統合され、意思決定者から、これらのシステムの能力や限界を包括的かつ微妙な理解を持つよう要求されている。
この需要の1つの重要な側面は、機械学習モデルの結果を説明する能力である。これは、AIシステムの透明性と信頼を促進するのに不可欠であり、機械学習モデルが倫理的に訓練されるのを助ける基本である。
本稿では,分類器モデルと回帰器モデルの予測を解釈するための定量的指標フレームワークを提案する。
提案するメトリクスはモデル非依存であり,定量化を可能にするために定義されている。
グローバルおよびローカルな特徴重要度分布に基づく解釈可能性因子;ii
特徴のばらつきがモデル出力に与える影響,およびiii。
モデル決定における機能インタラクションの複雑さ。
提案するメトリクスを、顧客の信用リスク(分類タスク)と不動産価格評価(回帰タスク)の予測に焦点を当てた、さまざまな機械学習モデルに適用するために、公開データセットを採用しています。
結果は、これらのメトリクスがモデル予測をより包括的に理解し、意思決定者とステークホルダー間のコミュニケーションを改善することによって、AIシステムの全体的な透明性と説明責任を高める方法を明らかにする。
関連論文リスト
- Emergent Explainability: Adding a causal chain to neural network
inference [0.0]
本稿では,創発的コミュニケーション(EmCom)による説明可能な人工知能(xAI)の強化のための理論的枠組みを提案する。
我々は、EmComのAIシステムへの新たな統合を探求し、入力と出力の間の従来の連想関係から、より微妙で因果的解釈へのパラダイムシフトを提供する。
本稿は、このアプローチの理論的基盤、潜在的に広い応用、そして、責任と透明なAIシステムに対するニーズの増大と整合性について論じる。
論文 参考訳(メタデータ) (2024-01-29T02:28:39Z) - Interpretable and Explainable Machine Learning Methods for Predictive
Process Monitoring: A Systematic Literature Review [1.3812010983144802]
本稿では,機械学習モデル(ML)の予測プロセスマイニングの文脈における説明可能性と解釈可能性について,系統的に検討する。
我々は、様々なアプリケーション領域にまたがる現在の方法論とその応用の概要を概観する。
我々の研究は、プロセス分析のためのより信頼性が高く透明で効果的なインテリジェントシステムの開発と実装方法について、研究者や実践者がより深く理解することを目的としている。
論文 参考訳(メタデータ) (2023-12-29T12:43:43Z) - A Comprehensive Review on Financial Explainable AI [29.229196780505532]
金融の文脈における深層学習モデルの説明可能性向上を目的とした手法の比較調査を行う。
説明可能なAI手法のコレクションは,その特性に応じて分類する。
我々は、説明可能なAI手法を採用する際の懸念と課題を、適切かつ重要と考えられる今後の方向性とともにレビューする。
論文 参考訳(メタデータ) (2023-09-21T10:30:49Z) - Brain-Inspired Computational Intelligence via Predictive Coding [89.6335791546526]
予測符号化(PC)は、マシンインテリジェンスタスクにおいて有望なパフォーマンスを示している。
PCは様々な脳領域で情報処理をモデル化することができ、認知制御やロボティクスで使用することができる。
論文 参考訳(メタデータ) (2023-08-15T16:37:16Z) - ComplAI: Theory of A Unified Framework for Multi-factor Assessment of
Black-Box Supervised Machine Learning Models [6.279863832853343]
ComplAIは、説明可能性、堅牢性、パフォーマンス、公正性、モデル行動を有効にし、観察し、分析し、定量化するユニークなフレームワークである。
教師付き機械学習モデルの評価は、正しい予測を行う能力だけでなく、全体的な責任の観点から行う。
論文 参考訳(メタデータ) (2022-12-30T08:48:19Z) - Vision Paper: Causal Inference for Interpretable and Robust Machine
Learning in Mobility Analysis [71.2468615993246]
インテリジェントな輸送システムを構築するには、人工知能とモビリティ分析の複雑な組み合わせが必要である。
ここ数年、高度なディープニューラルネットワークを使った輸送アプリケーションの開発が急速に進んでいる。
このビジョンペーパーは、解釈可能性と堅牢性を必要とするディープラーニングに基づくモビリティ分析における研究課題を強調する。
論文 参考訳(メタデータ) (2022-10-18T17:28:58Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - Individual Explanations in Machine Learning Models: A Survey for
Practitioners [69.02688684221265]
社会的関連性の高い領域の決定に影響を与える洗練された統計モデルの使用が増加しています。
多くの政府、機関、企業は、アウトプットが人間の解釈可能な方法で説明しにくいため、採用に消極的です。
近年,機械学習モデルに解釈可能な説明を提供する方法として,学術文献が多数提案されている。
論文 参考訳(メタデータ) (2021-04-09T01:46:34Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。