論文の概要: Recurrence-Aware Long-Term Cognitive Network for Explainable Pattern
Classification
- arxiv url: http://arxiv.org/abs/2107.03423v1
- Date: Wed, 7 Jul 2021 18:14:50 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-09 13:31:42.665107
- Title: Recurrence-Aware Long-Term Cognitive Network for Explainable Pattern
Classification
- Title(参考訳): 説明可能なパターン分類のための反復認識型長期認知ネットワーク
- Authors: Gonzalo N\'apoles, Yamisleydi Salgueiro, Isel Grau, Maikel Leon
Espinosa
- Abstract要約: 構造化データの解釈可能なパターン分類のためのLCCNモデルを提案する。
本手法は, 決定過程における各特徴の関連性を定量化し, 説明を提供する独自のメカニズムを提供する。
解釈可能なモデルでは,最先端の白黒ボックスと比較して競争性能が向上する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Machine learning solutions for pattern classification problems are nowadays
widely deployed in society and industry. However, the lack of transparency and
accountability of most accurate models often hinders their meaningful and safe
use. Thus, there is a clear need for developing explainable artificial
intelligence mechanisms. There exist model-agnostic methods that summarize
feature contributions, but their interpretability is limited to specific
predictions made by black-box models. An open challenge is to develop models
that have intrinsic interpretability and produce their own explanations, even
for classes of models that are traditionally considered black boxes like
(recurrent) neural networks. In this paper, we propose an LTCN-based model for
interpretable pattern classification of structured data. Our method brings its
own mechanism for providing explanations by quantifying the relevance of each
feature in the decision process. For supporting the interpretability without
affecting the performance, the model incorporates more flexibility through a
quasi-nonlinear reasoning rule that allows controlling nonlinearity. Besides,
we propose a recurrence-aware decision model that evades the issues posed by
unique fixed points while introducing a deterministic learning method to
compute the learnable parameters. The simulations show that our interpretable
model obtains competitive performance when compared to the state-of-the-art
white and black boxes.
- Abstract(参考訳): パターン分類問題の機械学習ソリューションは現在、社会や産業に広く展開されている。
しかしながら、最も正確なモデルの透明性と説明責任の欠如は、しばしば有意義で安全な使用を妨げる。
したがって、説明可能な人工知能メカニズムを開発する必要がある。
機能貢献を要約するモデル非依存な方法が存在するが、その解釈可能性はブラックボックスモデルによる特定の予測に限定される。
オープンな課題は、(リカレント)ニューラルネットワークのような伝統的にブラックボックスと見なされるモデルのクラスでさえも、内在的な解釈可能性を持ち、独自の説明を生み出すモデルを開発することである。
本稿では,構造化データの解釈可能なパターン分類のためのLCCNモデルを提案する。
本手法は, 決定過程における各特徴の関連性を定量化し, 説明を提供する独自のメカニズムを提供する。
性能に影響を与えることなく解釈性をサポートするために、モデルは非線形性を制御することができる準非線形推論則を通じてより柔軟性を取り入れる。
さらに,学習可能なパラメータを計算するための決定論的学習手法を導入しながら,一意の固定点による問題を回避する再認識決定モデルを提案する。
シミュレーションにより, 現状の白黒ボックスと比較すると, 解釈可能なモデルでは競合性能が得られた。
関連論文リスト
- Towards Compositional Interpretability for XAI [3.3768167170511587]
本稿では,カテゴリ理論に基づくAIモデルとその解釈可能性の定義手法を提案する。
我々は、幅広いAIモデルを構成モデルと比較する。
標準の'本質的に解釈可能な'モデルを作るものは、最も明確に図式化されます。
論文 参考訳(メタデータ) (2024-06-25T14:27:03Z) - SynthTree: Co-supervised Local Model Synthesis for Explainable Prediction [15.832975722301011]
本稿では,最小限の精度で説明可能性を向上させる手法を提案する。
我々は,AI技術を利用してノードを推定する新しい手法を開発した。
我々の研究は、統計的方法論が説明可能なAIを前進させる上で重要な役割を担っている。
論文 参考訳(メタデータ) (2024-06-16T14:43:01Z) - Explainability for Large Language Models: A Survey [59.67574757137078]
大規模言語モデル(LLM)は、自然言語処理における印象的な能力を示している。
本稿では,トランスフォーマーに基づく言語モデルを記述する手法について,説明可能性の分類法を紹介した。
論文 参考訳(メタデータ) (2023-09-02T22:14:26Z) - CLIMAX: An exploration of Classifier-Based Contrastive Explanations [5.381004207943597]
我々は,ブラックボックスの分類を正当化する対照的な説明を提供する,ポストホックモデルXAI手法を提案する。
CLIMAXと呼ばれる手法は,局所的な分類法に基づく。
LIME, BayLIME, SLIMEなどのベースラインと比較して, 一貫性が向上することを示す。
論文 参考訳(メタデータ) (2023-07-02T22:52:58Z) - VCNet: A self-explaining model for realistic counterfactual generation [52.77024349608834]
事実的説明は、機械学習の決定を局所的に説明するための手法のクラスである。
本稿では,予測器と対実生成器を組み合わせたモデルアーキテクチャであるVCNet-Variational Counter Netを提案する。
我々はVCNetが予測を生成でき、また、別の最小化問題を解くことなく、反現実的な説明を生成できることを示した。
論文 参考訳(メタデータ) (2022-12-21T08:45:32Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - Distilling Interpretable Models into Human-Readable Code [71.11328360614479]
人間可読性は機械学習モデル解釈可能性にとって重要で望ましい標準である。
従来の方法を用いて解釈可能なモデルを訓練し,それを簡潔で可読なコードに抽出する。
本稿では,幅広いユースケースで効率的に,確実に高品質な結果を生成する分別線形曲線フィッティングアルゴリズムについて述べる。
論文 参考訳(メタデータ) (2021-01-21T01:46:36Z) - TimeSHAP: Explaining Recurrent Models through Sequence Perturbations [3.1498833540989413]
リカレントニューラルネットワークは、多くの機械学習ドメインで標準的なビルディングブロックである。
これらのモデルにおける複雑な意思決定はブラックボックスと見なされ、正確性と解釈可能性の間の緊張を生み出す。
本研究では,モデルに依存しないリカレント説明器であるTimeSHAPを提示することにより,これらのギャップを埋めることに寄与する。
論文 参考訳(メタデータ) (2020-11-30T19:48:57Z) - Generative Temporal Difference Learning for Infinite-Horizon Prediction [101.59882753763888]
我々は、無限確率的地平線を持つ環境力学の予測モデルである$gamma$-modelを導入する。
トレーニングタイムとテストタイムの複合的なエラーの間には、そのトレーニングが避けられないトレードオフを反映しているかについて議論する。
論文 参考訳(メタデータ) (2020-10-27T17:54:12Z) - Explainable Matrix -- Visualization for Global and Local
Interpretability of Random Forest Classification Ensembles [78.6363825307044]
本研究では,ランダムフォレスト (RF) 解釈のための新しい可視化手法である Explainable Matrix (ExMatrix) を提案する。
単純なマトリックスのようなメタファで、行はルール、列は特徴、セルはルールを述語する。
ExMatrixの適用性は、異なる例を通じて確認され、RFモデルの解釈可能性を促進するために実際にどのように使用できるかを示している。
論文 参考訳(メタデータ) (2020-05-08T21:03:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。