論文の概要: Towards Compositional Interpretability for XAI
- arxiv url: http://arxiv.org/abs/2406.17583v1
- Date: Tue, 25 Jun 2024 14:27:03 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-26 14:10:33.462787
- Title: Towards Compositional Interpretability for XAI
- Title(参考訳): XAIにおける構成的解釈可能性に向けて
- Authors: Sean Tull, Robin Lorenz, Stephen Clark, Ilyas Khan, Bob Coecke,
- Abstract要約: 本稿では,カテゴリ理論に基づくAIモデルとその解釈可能性の定義手法を提案する。
我々は、幅広いAIモデルを構成モデルと比較する。
標準の'本質的に解釈可能な'モデルを作るものは、最も明確に図式化されます。
- 参考スコア(独自算出の注目度): 3.3768167170511587
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Artificial intelligence (AI) is currently based largely on black-box machine learning models which lack interpretability. The field of eXplainable AI (XAI) strives to address this major concern, being critical in high-stakes areas such as the finance, legal and health sectors. We present an approach to defining AI models and their interpretability based on category theory. For this we employ the notion of a compositional model, which sees a model in terms of formal string diagrams which capture its abstract structure together with its concrete implementation. This comprehensive view incorporates deterministic, probabilistic and quantum models. We compare a wide range of AI models as compositional models, including linear and rule-based models, (recurrent) neural networks, transformers, VAEs, and causal and DisCoCirc models. Next we give a definition of interpretation of a model in terms of its compositional structure, demonstrating how to analyse the interpretability of a model, and using this to clarify common themes in XAI. We find that what makes the standard 'intrinsically interpretable' models so transparent is brought out most clearly diagrammatically. This leads us to the more general notion of compositionally-interpretable (CI) models, which additionally include, for instance, causal, conceptual space, and DisCoCirc models. We next demonstrate the explainability benefits of CI models. Firstly, their compositional structure may allow the computation of other quantities of interest, and may facilitate inference from the model to the modelled phenomenon by matching its structure. Secondly, they allow for diagrammatic explanations for their behaviour, based on influence constraints, diagram surgery and rewrite explanations. Finally, we discuss many future directions for the approach, raising the question of how to learn such meaningfully structured models in practice.
- Abstract(参考訳): 人工知能(AI)は現在、主に解釈性に欠けるブラックボックス機械学習モデルに基づいている。
eXplainable AI(XAI)の分野は、金融、法務、健康といった高い分野において批判的であり、この大きな懸念に対処しようと努力している。
本稿では,カテゴリ理論に基づくAIモデルとその解釈可能性の定義手法を提案する。
このために、構成モデルの概念を用い、その抽象構造を具体的実装とともに捉える形式的な文字列図式の観点からモデルを見る。
この包括的見解は決定論的、確率論的、量子モデルを含む。
我々は、線形モデルとルールベースのモデル、(繰り返し)ニューラルネットワーク、トランスフォーマー、VAE、因果モデルとDisCoCircモデルを含む、幅広いAIモデルを構成モデルとして比較する。
次に、その構成構造の観点からモデルの解釈を定義し、モデルの解釈可能性を分析する方法を示し、これを用いてXAIの共通テーマを明らかにする。
標準の'本質的に解釈可能な'モデルを作るものは、最も明確に図式化されます。
これは、例えば因果関係、概念空間、DisCoCircモデルを含む、より一般的な構成解釈可能な(CI)モデルの概念につながります。
次に、CIモデルの説明可能性の利点を説明します。
第一に、それらの構成構造は他の量の興味の計算を可能にし、その構造と一致することによってモデルからモデル化された現象への推論を促進することができる。
第二に、影響の制約、図形手術、書き直しの説明に基づいて、彼らの行動に関する図式的な説明を可能にする。
最後に,アプローチの今後の方向性について論じ,そのような意味のある構造化されたモデルを実際にどのように学習するかという疑問を提起する。
関連論文リスト
- Learning Discrete Concepts in Latent Hierarchical Models [73.01229236386148]
自然の高次元データから学習する概念は、ヒューマンアライメントと解釈可能な機械学習モデルの構築の可能性を秘めている。
我々は概念を階層的因果モデルを通して関連付けられた離散潜在因果変数として定式化する。
我々は、理論的な主張を合成データ実験で裏付ける。
論文 参考訳(メタデータ) (2024-06-01T18:01:03Z) - Model Interpretation and Explainability: Towards Creating Transparency in Prediction Models [0.0]
説明可能なAI(XAI)には、モデル説明可能性と呼ばれる分析モデルがある。
クレジットカード会社からの融資のデータセットを分析し、4つの異なる予測手法を実行・比較し、現在の文献で最もよく知られた説明可能性手法をモデルトレーニングセットに適用し、特徴重要度(FI)を識別する(静的ケース)。
静的ケースと動的ケースのFI識別に矛盾が認められた。
論文 参考訳(メタデータ) (2024-05-31T13:54:25Z) - Explainability for Large Language Models: A Survey [59.67574757137078]
大規模言語モデル(LLM)は、自然言語処理における印象的な能力を示している。
本稿では,トランスフォーマーに基づく言語モデルを記述する手法について,説明可能性の分類法を紹介した。
論文 参考訳(メタデータ) (2023-09-02T22:14:26Z) - Learning with Explanation Constraints [91.23736536228485]
我々は、説明がモデルの学習をどのように改善するかを分析するための学習理論フレームワークを提供する。
我々は,多数の合成および実世界の実験に対して,我々のアプローチの利点を実証する。
論文 参考訳(メタデータ) (2023-03-25T15:06:47Z) - Structure Learning and Parameter Estimation for Graphical Models via
Penalized Maximum Likelihood Methods [0.0]
論文では、静的なベイジアンネットワーク(BN)と、その名前が示すように時間成分を持つ連続時間ベイジアンネットワークという2つの異なるタイプのPGMについて考察する。
私たちは、PGMを学ぶための最初のステップである、真の構造を回復することに興味を持っています。
論文 参考訳(メタデータ) (2023-01-30T20:26:13Z) - GAM(e) changer or not? An evaluation of interpretable machine learning
models based on additive model constraints [5.783415024516947]
本稿では,一連の固有解釈可能な機械学習モデルについて検討する。
5つのGAMの予測特性を従来のMLモデルと比較した。
論文 参考訳(メタデータ) (2022-04-19T20:37:31Z) - Geometric and Topological Inference for Deep Representations of Complex
Networks [13.173307471333619]
我々は、トポロジと表現の幾何学を強調する統計のクラスを提示する。
モデル選択に使用する場合の感度と特異性の観点から,これらの統計値を評価する。
これらの新しい手法により、脳やコンピューター科学者は、脳やモデルによって学習された動的表現変換を可視化することができる。
論文 参考訳(メタデータ) (2022-03-10T17:14:14Z) - Low-Rank Constraints for Fast Inference in Structured Models [110.38427965904266]
この研究は、大規模構造化モデルの計算とメモリの複雑さを低減するための単純なアプローチを示す。
言語モデリング,ポリフォニック・ミュージック・モデリング,教師なし文法帰納法,ビデオ・モデリングのためのニューラルパラメータ構造モデルを用いた実験により,我々の手法は大規模状態空間における標準モデルの精度と一致することを示した。
論文 参考訳(メタデータ) (2022-01-08T00:47:50Z) - Recurrence-Aware Long-Term Cognitive Network for Explainable Pattern
Classification [0.0]
構造化データの解釈可能なパターン分類のためのLCCNモデルを提案する。
本手法は, 決定過程における各特徴の関連性を定量化し, 説明を提供する独自のメカニズムを提供する。
解釈可能なモデルでは,最先端の白黒ボックスと比較して競争性能が向上する。
論文 参考訳(メタデータ) (2021-07-07T18:14:50Z) - Model-agnostic multi-objective approach for the evolutionary discovery
of mathematical models [55.41644538483948]
現代のデータ科学では、どの部分がより良い結果を得るために置き換えられるかというモデルの性質を理解することがより興味深い。
合成データ駆動型モデル学習において,多目的進化最適化を用いてアルゴリズムの所望特性を求める。
論文 参考訳(メタデータ) (2021-07-07T11:17:09Z) - Explainable Matrix -- Visualization for Global and Local
Interpretability of Random Forest Classification Ensembles [78.6363825307044]
本研究では,ランダムフォレスト (RF) 解釈のための新しい可視化手法である Explainable Matrix (ExMatrix) を提案する。
単純なマトリックスのようなメタファで、行はルール、列は特徴、セルはルールを述語する。
ExMatrixの適用性は、異なる例を通じて確認され、RFモデルの解釈可能性を促進するために実際にどのように使用できるかを示している。
論文 参考訳(メタデータ) (2020-05-08T21:03:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。