論文の概要: GLocalX -- From Local to Global Explanations of Black Box AI Models
- arxiv url: http://arxiv.org/abs/2101.07685v2
- Date: Tue, 26 Jan 2021 11:26:16 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-22 11:31:03.512228
- Title: GLocalX -- From Local to Global Explanations of Black Box AI Models
- Title(参考訳): glocalx --black box aiモデルのローカルからグローバルへの説明
- Authors: Mattia Setzu, Riccardo Guidotti, Anna Monreale, Franco Turini, Dino
Pedreschi, Fosca Giannotti
- Abstract要約: GLocalXは"ローカルファースト"モデルに依存しない説明法である。
私たちのゴールは、与えられたブラックボックスをエミュレートする正確かつ単純な解釈可能なモデルを学び、可能であれば完全に置き換えることです。
- 参考スコア(独自算出の注目度): 12.065358125757847
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Artificial Intelligence (AI) has come to prominence as one of the major
components of our society, with applications in most aspects of our lives. In
this field, complex and highly nonlinear machine learning models such as
ensemble models, deep neural networks, and Support Vector Machines have
consistently shown remarkable accuracy in solving complex tasks. Although
accurate, AI models often are "black boxes" which we are not able to
understand. Relying on these models has a multifaceted impact and raises
significant concerns about their transparency. Applications in sensitive and
critical domains are a strong motivational factor in trying to understand the
behavior of black boxes. We propose to address this issue by providing an
interpretable layer on top of black box models by aggregating "local"
explanations. We present GLocalX, a "local-first" model agnostic explanation
method. Starting from local explanations expressed in form of local decision
rules, GLocalX iteratively generalizes them into global explanations by
hierarchically aggregating them. Our goal is to learn accurate yet simple
interpretable models to emulate the given black box, and, if possible, replace
it entirely. We validate GLocalX in a set of experiments in standard and
constrained settings with limited or no access to either data or local
explanations. Experiments show that GLocalX is able to accurately emulate
several models with simple and small models, reaching state-of-the-art
performance against natively global solutions. Our findings show how it is
often possible to achieve a high level of both accuracy and comprehensibility
of classification models, even in complex domains with high-dimensional data,
without necessarily trading one property for the other. This is a key
requirement for a trustworthy AI, necessary for adoption in high-stakes
decision making applications.
- Abstract(参考訳): 人工知能(AI)は、私たちの社会の主要な構成要素の1つとして、私たちの生活のほとんどに応用されている。
この分野では、アンサンブルモデル、ディープニューラルネットワーク、Support Vector Machinesのような複雑で非線形な機械学習モデルが、複雑なタスクの解決において一貫して顕著な精度を示している。
正確ではあるが、AIモデルは理解できない「ブラックボックス」であることが多い。
これらのモデルに依存することは、多面的な影響をもたらし、透明性に関する大きな懸念を引き起こす。
感度および臨界領域の応用は、ブラックボックスの振る舞いを理解するための強い動機付け要因である。
我々は,ブラックボックスモデル上に解釈可能な層を提供し,局所的な説明を集約することでこの問題に対処することを提案する。
GLocalXは"ローカルファースト"モデルに依存しない説明法である。
局所的な決定規則の形で表現された局所的な説明から始まり、GLocalXはそれらを階層的に集約することでそれらをグローバルな説明に反復的に一般化する。
私たちのゴールは、与えられたブラックボックスをエミュレートする正確かつ単純な解釈可能なモデルを学び、可能であれば完全に置き換えることです。
我々はGLocalXを、データやローカルな説明に限定的、あるいは全くアクセスせずに、標準および制約された設定の一連の実験で検証する。
実験によると、GLocalXは複数のモデルをシンプルで小さなモデルで正確にエミュレートでき、ネイティブなグローバルなソリューションに対して最先端のパフォーマンスに達する。
本研究は,高次元データを持つ複雑な領域においても,必ずしも一方の属性を他方と交換することなく,分類モデルの精度と理解性を高いレベルで達成できることを示す。
これは信頼できるAIにとって重要な要件であり、高い意思決定アプリケーションの採用に必要なものだ。
関連論文リスト
- Explainable AI for Comparative Analysis of Intrusion Detection Models [20.683181384051395]
本研究は,ネットワークトラフィックから侵入検出を行うために,各種機械学習モデルを二分分類および多クラス分類のタスクに解析する。
すべてのモデルをUNSW-NB15データセットで90%の精度でトレーニングしました。
また、Random Forestは正確さ、時間効率、堅牢性という点で最高のパフォーマンスを提供します。
論文 参考訳(メタデータ) (2024-06-14T03:11:01Z) - Towards a Generalist and Blind RGB-X Tracker [91.36268768952755]
我々は、推論時間中に任意のモダリティ X を無視できる単一のモデルトラッカーを開発する。
トレーニングプロセスは非常にシンプルで,複数ラベルの分類損失をルーティング関数に統合する。
我々のジェネラリストとブラインドトラッカーは、確立されたモーダル固有モデルと比較して、競争性能を達成することができる。
論文 参考訳(メタデータ) (2024-05-28T03:00:58Z) - Interpretability at Scale: Identifying Causal Mechanisms in Alpaca [62.65877150123775]
本研究では、Boundless DASを用いて、命令に従う間、大規模言語モデルにおける解釈可能な因果構造を効率的に探索する。
私たちの発見は、成長し、最も広くデプロイされている言語モデルの内部構造を忠実に理解するための第一歩です。
論文 参考訳(メタデータ) (2023-05-15T17:15:40Z) - When Neural Networks Fail to Generalize? A Model Sensitivity Perspective [82.36758565781153]
ドメイン一般化 (Domain Generalization, DG) は、異なる分布の下で見えないドメインでうまく機能するようにモデルを訓練することを目的としている。
本稿では,より現実的で,より困難なシナリオである単一領域一般化(Single-DG)について考察する。
我々は「モデル感度」と命名する一般化と強く相関するモデルの性質を経験的に確認する。
本稿では、高感度の周波数をターゲットとした拡張画像を生成するために、スペクトル逆データ拡張(SADA)の新たな戦略を提案する。
論文 参考訳(メタデータ) (2022-12-01T20:15:15Z) - Synthetic Model Combination: An Instance-wise Approach to Unsupervised
Ensemble Learning [92.89846887298852]
ラベル付きデータのトレーニングセットから学ぶ機会のない、新しいテストデータに対する予測を検討する。
専門家モデルのセットと予測へのアクセスと、トレーニングに使用するデータセットに関する制限された情報を提供すること。
論文 参考訳(メタデータ) (2022-10-11T10:20:31Z) - Greybox XAI: a Neural-Symbolic learning framework to produce
interpretable predictions for image classification [6.940242990198]
Greybox XAIは、シンボリック知識ベース(KB)を使うことで、DNNと透明モデルを構成するフレームワークである。
我々は、XAIの普遍的基準が欠如している問題に、説明が何であるかを形式化することで対処する。
この新しいアーキテクチャがどのように正確で、いくつかのデータセットで説明可能であるかを示す。
論文 参考訳(メタデータ) (2022-09-26T08:55:31Z) - Learning outside the Black-Box: The pursuit of interpretable models [78.32475359554395]
本稿では,任意の連続ブラックボックス関数の連続的大域的解釈を生成するアルゴリズムを提案する。
我々の解釈は、その芸術の以前の状態から飛躍的な進歩を表している。
論文 参考訳(メタデータ) (2020-11-17T12:39:44Z) - Explainable Deep Classification Models for Domain Generalization [94.43131722655617]
説明は、深い分類網が決定を下す視覚的証拠の領域として定義される。
トレーニング戦略は周期的な正当性に基づくフィードバックを強制し、モデルが地中真実に直接対応する画像領域に焦点を合わせることを奨励する。
論文 参考訳(メタデータ) (2020-03-13T22:22:15Z) - Learning Global Transparent Models Consistent with Local Contrastive
Explanations [34.86847988157447]
ブラックボックスモデルについて,局所的な対照的な説明からカスタム機能を作成し,これらだけでグローバルに透過的なモデルをトレーニングする。
そこで本研究では,ブラックボックスモデルの局所的な対照的な説明からカスタムな特徴を創出し,その上にグローバルな透明なモデルをトレーニングする手法を提案する。
論文 参考訳(メタデータ) (2020-02-19T15:45:42Z) - MapLUR: Exploring a new Paradigm for Estimating Air Pollution using Deep
Learning on Map Images [4.7791671364702575]
土地利用回帰モデルは, 計測ステーションのない地域での大気汚染濃度を評価する上で重要である。
我々は,オープンかつグローバルなデータのみを用いて,純粋にデータ駆動型アプローチに基づくモデルを実現する,データ駆動型オープングローバル(DOG)パラダイムを提案する。
論文 参考訳(メタデータ) (2020-02-18T11:21:55Z) - Auditing and Debugging Deep Learning Models via Decision Boundaries:
Individual-level and Group-level Analysis [0.0]
深層学習モデルの説明、監査、デバッグにはフリップポイントを使用します。
フリップポイントは、2つの出力クラスの境界にある任意の点である。
機械学習のソーシャルな応用に使用される標準データセットに基づいて訓練されたモデルをいくつか調べて,本手法を実証する。
論文 参考訳(メタデータ) (2020-01-03T01:45:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。