論文の概要: A Case Study on Concept Induction for Neuron-Level Interpretability in CNN
- arxiv url: http://arxiv.org/abs/2603.00197v1
- Date: Fri, 27 Feb 2026 08:07:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-03 19:50:56.100753
- Title: A Case Study on Concept Induction for Neuron-Level Interpretability in CNN
- Title(参考訳): CNNにおけるニューロンレベル解釈性の概念誘導の一事例
- Authors: Moumita Sen Sarma, Samatha Ereshi Akkamahadevi, Pascal Hitzler,
- Abstract要約: 概念誘導に基づく隠れニューロン解析フレームワークはADE20Kデータセット上で有効であることを示した。
本研究では,大規模シーン認識ベンチマークであるSUN2012データセットに適用することで,アプローチが一般化するかどうかを検討する。
- 参考スコア(独自算出の注目度): 0.14337588659482517
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Deep Neural Networks (DNNs) have advanced applications in domains such as healthcare, autonomous systems, and scene understanding, yet the internal semantics of their hidden neurons remain poorly understood. Prior work introduced a Concept Induction-based framework for hidden neuron analysis and demonstrated its effectiveness on the ADE20K dataset. In this case study, we investigate whether the approach generalizes by applying it to the SUN2012 dataset, a large-scale scene recognition benchmark. Using the same workflow, we assign interpretable semantic labels to neurons and validate them through web-sourced images and statistical testing. Our findings confirm that the method transfers to SUN2012, showing its broader applicability.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は、医療、自律システム、シーン理解といった分野に先進的な応用があるが、隠れたニューロンの内部意味はいまだに理解されていない。
以前の研究は、隠されたニューロン分析のための概念誘導ベースのフレームワークを導入し、ADE20Kデータセットでその効果を実証した。
本研究では,大規模シーン認識ベンチマークであるSUN2012データセットに適用することで,アプローチが一般化するかどうかを検討する。
同じワークフローを用いて、解釈可能なセマンティックラベルをニューロンに割り当て、Webソース画像と統計的検査によって検証する。
以上の結果から,本手法はSUN2012に導入され,適用範囲が広くなったことが確認された。
関連論文リスト
- Representation Understanding via Activation Maximization [13.88866465448849]
本稿では、畳み込みニューラルネットワーク(CNN)と視覚変換器(ViT)の両方に適用可能な統合された特徴可視化フレームワークを提案する。
従来のCNNと現代のViTの両方において、我々のアプローチの有効性を実証し、その一般化可能性と価値を強調した。
論文 参考訳(メタデータ) (2025-08-10T10:36:30Z) - Concept-Guided Interpretability via Neural Chunking [64.6429903327095]
ニューラルネットワークは、トレーニングデータの規則性を反映した生の集団活動のパターンを示す。
神経集団レベルで繰り返しチャンクを抽出する3つの方法を提案する。
私たちの研究は、認知原則と自然主義的データの構造の両方を活用する、解釈可能性の新しい方向性を指し示しています。
論文 参考訳(メタデータ) (2025-05-16T13:49:43Z) - Discovering Chunks in Neural Embeddings for Interpretability [53.80157905839065]
本稿では, チャンキングの原理を応用して, 人工神経集団活動の解釈を提案する。
まず、この概念を正則性を持つ人工シーケンスを訓練したリカレントニューラルネットワーク(RNN)で実証する。
我々は、これらの状態に対する摂動が関連する概念を活性化または阻害すると共に、入力における概念に対応する同様の繰り返し埋め込み状態を特定する。
論文 参考訳(メタデータ) (2025-02-03T20:30:46Z) - Interpreting Neural Networks through Mahalanobis Distance [0.0]
本稿では,ニューラルネットワークの線形層とマハラノビス距離を結合する理論的枠組みを提案する。
この研究は理論的であり、経験的データを含んでいないが、提案された距離に基づく解釈は、モデルロバスト性を高め、一般化を改善し、ニューラルネットワークの決定をより直観的な説明を提供する可能性がある。
論文 参考訳(メタデータ) (2024-10-25T07:21:44Z) - Automated Natural Language Explanation of Deep Visual Neurons with Large
Models [43.178568768100305]
本稿では,大きな基礎モデルを持つニューロンの意味的説明を生成するための,新しいポストホックフレームワークを提案する。
我々のフレームワークは、様々なモデルアーキテクチャやデータセット、自動化されたスケーラブルなニューロン解釈と互換性があるように設計されています。
論文 参考訳(メタデータ) (2023-10-16T17:04:51Z) - Deep Neural Networks Tend To Extrapolate Predictably [51.303814412294514]
ニューラルネットワークの予測は、アウト・オブ・ディストリビューション(OOD)入力に直面した場合、予測不可能で過信される傾向がある。
我々は、入力データがOODになるにつれて、ニューラルネットワークの予測が一定値に向かう傾向があることを観察する。
我々は、OOD入力の存在下でリスクに敏感な意思決定を可能にするために、私たちの洞察を実際に活用する方法を示します。
論文 参考訳(メタデータ) (2023-10-02T03:25:32Z) - Transferability of coVariance Neural Networks and Application to
Interpretable Brain Age Prediction using Anatomical Features [119.45320143101381]
グラフ畳み込みネットワーク(GCN)は、トポロジー駆動のグラフ畳み込み演算を利用して、推論タスクのためにグラフをまたいだ情報を結合する。
我々は、共分散行列をグラフとして、共分散ニューラルネットワーク(VNN)の形でGCNを研究した。
VNNは、GCNからスケールフリーなデータ処理アーキテクチャを継承し、ここでは、共分散行列が極限オブジェクトに収束するデータセットに対して、VNNが性能の転送可能性を示すことを示す。
論文 参考訳(メタデータ) (2023-05-02T22:15:54Z) - PCACE: A Statistical Approach to Ranking Neurons for CNN
Interpretability [1.0742675209112622]
ネットワークのどの畳み込み層にも隠れたニューロンをランク付けするための新しい統計手法を提案する。
街路画像を用いた大気汚染予測への本手法の実際の応用について述べる。
論文 参考訳(メタデータ) (2021-12-31T17:54:57Z) - FF-NSL: Feed-Forward Neural-Symbolic Learner [70.978007919101]
本稿では,Feed-Forward Neural-Symbolic Learner (FF-NSL) と呼ばれるニューラルシンボリック学習フレームワークを紹介する。
FF-NSLは、ラベル付き非構造化データから解釈可能な仮説を学習するために、Answer Setセマンティクスに基づく最先端のICPシステムとニューラルネットワークを統合する。
論文 参考訳(メタデータ) (2021-06-24T15:38:34Z) - And/or trade-off in artificial neurons: impact on adversarial robustness [91.3755431537592]
ネットワークに十分な数のOR様ニューロンが存在すると、分類の脆さと敵の攻撃に対する脆弱性が増加する。
そこで我々は,AND様ニューロンを定義し,ネットワーク内での割合を増大させる対策を提案する。
MNISTデータセットによる実験結果から,本手法はさらなる探索の方向として有望であることが示唆された。
論文 参考訳(メタデータ) (2021-02-15T08:19:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。