論文の概要: Enhancing Vision Transformer Explainability Using Artificial Astrocytes
- arxiv url: http://arxiv.org/abs/2505.21513v1
- Date: Tue, 20 May 2025 23:16:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-29 17:35:50.112381
- Title: Enhancing Vision Transformer Explainability Using Artificial Astrocytes
- Title(参考訳): 人工アストロサイトを用いた視覚変換器の説明可能性の向上
- Authors: Nicolas Echevarrieta-Catalan, Ana Ribas-Rodriguez, Francisco Cedron, Odelia Schwartz, Vanessa Aguiar-Pulido,
- Abstract要約: 人工アストロサイトを用いた視覚変換器(ViTA)を提案する。
このトレーニングなしのアプローチは神経科学にインスパイアされ、事前訓練されたディープニューラルネットワークの推論を強化し、より人間に近い説明を生成する。
その結果, 人工アストロサイトを組み込むことで, モデル説明と人間の知覚のアライメントが向上することが明らかとなった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning models achieve high precision, but their decision-making processes often lack explainability. Furthermore, as model complexity increases, explainability typically decreases. Existing efforts to improve explainability primarily involve developing new eXplainable artificial intelligence (XAI) techniques or incorporating explainability constraints during training. While these approaches yield specific improvements, their applicability remains limited. In this work, we propose the Vision Transformer with artificial Astrocytes (ViTA). This training-free approach is inspired by neuroscience and enhances the reasoning of a pretrained deep neural network to generate more human-aligned explanations. We evaluated our approach employing two well-known XAI techniques, Grad-CAM and Grad-CAM++, and compared it to a standard Vision Transformer (ViT). Using the ClickMe dataset, we quantified the similarity between the heatmaps produced by the XAI techniques and a (human-aligned) ground truth. Our results consistently demonstrate that incorporating artificial astrocytes enhances the alignment of model explanations with human perception, leading to statistically significant improvements across all XAI techniques and metrics utilized.
- Abstract(参考訳): 機械学習モデルは高い精度を達成するが、意思決定プロセスは説明責任を欠くことが多い。
さらに、モデル複雑性が増加するにつれて、説明可能性は通常低下する。
説明可能性を改善するための既存の取り組みは、主に新しいeXplainable Artificial Intelligence(XAI)技術の開発や、トレーニング中に説明可能性の制約を取り入れることである。
これらのアプローチは特定の改善をもたらすが、適用性は制限されている。
本研究では人工アストロサイト(ViTA)を用いた視覚変換器を提案する。
このトレーニングなしのアプローチは神経科学にインスパイアされ、事前訓練されたディープニューラルネットワークの推論を強化し、より人間に近い説明を生成する。
我々は、Grad-CAMとGrad-CAM++という2つのよく知られたXAI技術を用いてアプローチを評価し、それを標準ビジョン変換器(ViT)と比較した。
ClickMeデータセットを用いて、XAI技術が生み出すヒートマップと、(人間に沿った)地上の真実との類似性を定量化した。
以上の結果から, 人工アストロサイトを組み込むことで, モデル説明と人間の知覚のアライメントが向上し, 全XAI技術および測定値に対して統計的に有意な改善が得られた。
関連論文リスト
- DDAE++: Enhancing Diffusion Models Towards Unified Generative and Discriminative Learning [53.27049077100897]
生成前訓練は差別的な表現をもたらし、統一された視覚生成と理解への道を開くことが示されている。
この研究は自己条件付けを導入し、ネットワークに固有のリッチなセマンティクスを内部的に活用し、独自のデコード層をガイドする。
提案手法は、FIDの生成と認識の精度を1%の計算オーバーヘッドで向上させ、多様な拡散アーキテクチャで一般化する。
論文 参考訳(メタデータ) (2025-05-16T08:47:16Z) - Breaking the bonds of generative artificial intelligence by minimizing the maximum entropy [0.0]
最小エントロピー原理に基づくab initio法を提案する。
任意の非線形関数によってパラメータ化された潜在表現を見つけることにより、トレーニングセット内の情報を圧縮する。
データ効率が良く、オーバーフィッティングに耐性があり、柔軟性があり、生成プロセスの制御と影響が可能である。
論文 参考訳(メタデータ) (2025-02-18T21:16:33Z) - VidMan: Exploiting Implicit Dynamics from Video Diffusion Model for Effective Robot Manipulation [79.00294932026266]
VidManは、安定性を高め、データ利用効率を向上させるために、2段階のトレーニングメカニズムを使用する新しいフレームワークである。
我々のフレームワークは、CALVINベンチマークで最先端のベースラインモデルGR-1を上回り、11.7%の相対的な改善を実現し、OXEの小規模データセットで9%以上の精度向上を示す。
論文 参考訳(メタデータ) (2024-11-14T03:13:26Z) - Human-inspired Explanations for Vision Transformers and Convolutional Neural Networks [8.659674736978555]
本稿では,Deep Neural Networks のための新しいヒューマンインスパイアされた視覚的説明可能性 (XAI) 手法である Foveation-based Explanations (FovEx) を紹介する。
提案手法は変圧器(5つの指標のうち4つ)と畳み込みモデルの両方で最先端の性能を達成し,その汎用性を実証する。
論文 参考訳(メタデータ) (2024-08-04T19:37:30Z) - SynthTree: Co-supervised Local Model Synthesis for Explainable Prediction [15.832975722301011]
本稿では,最小限の精度で説明可能性を向上させる手法を提案する。
我々は,AI技術を利用してノードを推定する新しい手法を開発した。
我々の研究は、統計的方法論が説明可能なAIを前進させる上で重要な役割を担っている。
論文 参考訳(メタデータ) (2024-06-16T14:43:01Z) - X-SHIELD: Regularization for eXplainable Artificial Intelligence [9.658282892513386]
XAIは、その説明可能性を高めながら、モデルパフォーマンスを改善するために使用することができる。
このファミリー内では、説明可能な人工知能の正規化であるXAI-ShiELD(X-SHIELD)を提案する。
この改善は、X-SHIELD正則化の有無とモデルの比較実験によって検証される。
論文 参考訳(メタデータ) (2024-04-03T09:56:38Z) - Enhancing Dynamical System Modeling through Interpretable Machine
Learning Augmentations: A Case Study in Cathodic Electrophoretic Deposition [0.8796261172196743]
本稿では,物理システムのモデリング向上を目的とした包括的データ駆動フレームワークを提案する。
実証的応用として,電顕的電気泳動沈着(EPD)のモデル化を追求する。
論文 参考訳(メタデータ) (2024-01-16T14:58:21Z) - Beyond Explaining: Opportunities and Challenges of XAI-Based Model
Improvement [75.00655434905417]
説明可能な人工知能(XAI)は、高度に複雑な機械学習(ML)モデルに透明性をもたらす新たな研究分野である。
本稿では,機械学習モデルの諸特性を改善するために,XAIを実用的に応用する手法を概観する。
実験では,モデル一般化能力や推論などの特性を改善する上で,説明がどのように役立つのかを,おもちゃと現実的な設定で実証的に示す。
論文 参考訳(メタデータ) (2022-03-15T15:44:28Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z) - Domain Adaptive Robotic Gesture Recognition with Unsupervised
Kinematic-Visual Data Alignment [60.31418655784291]
本稿では,マルチモダリティ知識,すなわちキネマティックデータとビジュアルデータを同時にシミュレータから実ロボットに伝達できる,教師なしドメイン適応フレームワークを提案する。
ビデオの時間的手がかりと、ジェスチャー認識に対するマルチモーダル固有の相関を用いて、トランスファー可能な機能を強化したドメインギャップを修復する。
その結果, 本手法は, ACCでは最大12.91%, F1scoreでは20.16%と, 実際のロボットではアノテーションを使わずに性能を回復する。
論文 参考訳(メタデータ) (2021-03-06T09:10:03Z) - Explainability in Deep Reinforcement Learning [68.8204255655161]
説明可能な強化学習(XRL)の実現に向けての最近の成果を概観する。
エージェントの振る舞いを正当化し、説明することが不可欠である重要な状況において、RLモデルのより良い説明可能性と解釈性は、まだブラックボックスと見なされているものの内部動作に関する科学的洞察を得るのに役立つ。
論文 参考訳(メタデータ) (2020-08-15T10:11:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。