論文の概要: Semantic interpretation for convolutional neural networks: What makes a
cat a cat?
- arxiv url: http://arxiv.org/abs/2204.07724v1
- Date: Sat, 16 Apr 2022 05:25:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-19 12:36:41.344656
- Title: Semantic interpretation for convolutional neural networks: What makes a
cat a cat?
- Title(参考訳): 畳み込みニューラルネットワークの意味論的解釈 : 猫を猫にする理由
- Authors: Hao Xu, Yuntian Chen, Dongxiao Zhang
- Abstract要約: 意味論的説明可能なAI(S-XAI)の枠組みを紹介する。
S-XAIは、行中心の主成分分析を使用して、遺伝的アルゴリズムによって発見されたスーパーピクセルの最良の組み合わせから共通の特徴を得る。
発見された意味に敏感なニューロンと可視化技術に基づいて、理解可能な意味空間を抽出する。
- 参考スコア(独自算出の注目度): 3.132595571344153
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The interpretability of deep neural networks has attracted increasing
attention in recent years, and several methods have been created to interpret
the "black box" model. Fundamental limitations remain, however, that impede the
pace of understanding the networks, especially the extraction of understandable
semantic space. In this work, we introduce the framework of semantic
explainable AI (S-XAI), which utilizes row-centered principal component
analysis to obtain the common traits from the best combination of superpixels
discovered by a genetic algorithm, and extracts understandable semantic spaces
on the basis of discovered semantically sensitive neurons and visualization
techniques. Statistical interpretation of the semantic space is also provided,
and the concept of semantic probability is proposed for the first time. Our
experimental results demonstrate that S-XAI is effective in providing a
semantic interpretation for the CNN, and offers broad usage, including
trustworthiness assessment and semantic sample searching.
- Abstract(参考訳): 近年、ディープニューラルネットワークの解釈可能性に注目が集まっており、「ブラックボックス」モデルを解釈するいくつかの方法が作成されている。
しかし、ネットワークを理解するペース、特に理解可能な意味空間の抽出を妨げる基本的な制限は残っている。
本稿では,遺伝的アルゴリズムにより検出されたスーパーピクセルの最良の組み合わせから,行中心主成分分析を用いて共通特徴を抽出し,検出された意味的センシティブなニューロンと可視化技術に基づいて理解可能な意味空間を抽出する,意味説明可能なai(s-xai)の枠組みを紹介する。
意味空間の統計的解釈も提供され、意味確率の概念が初めて提案される。
実験の結果,S-XAIはCNNのセマンティックな解釈に有効であり,信頼性評価やセマンティックなサンプル検索など幅広い用途を提供している。
関連論文リスト
- Closed-Form Interpretation of Neural Network Latent Spaces with Symbolic Gradients [0.0]
本稿では,ニューラルネットワークの潜在空間におけるニューロンのクローズドフォーム解釈の枠組みを提案する。
解釈フレームワークは、トレーニングされたニューラルネットワークを同じ概念をエンコードする同値クラスの関数に埋め込むことに基づいている。
論文 参考訳(メタデータ) (2024-09-09T03:26:07Z) - Understanding polysemanticity in neural networks through coding theory [0.8702432681310401]
本稿では,ネットワークの解釈可能性に関する新たな実践的アプローチと,多意味性やコードの密度に関する理論的考察を提案する。
ランダムなプロジェクションによって、ネットワークがスムーズか非微分可能かが明らかになり、コードがどのように解釈されるかを示す。
我々のアプローチは、ニューラルネットワークにおける解釈可能性の追求を前進させ、その基盤となる構造についての洞察を与え、回路レベルの解釈可能性のための新たな道を提案する。
論文 参考訳(メタデータ) (2024-01-31T16:31:54Z) - Manipulating Feature Visualizations with Gradient Slingshots [54.31109240020007]
本稿では,モデルの決定過程に大きな影響を及ぼすことなく,特徴可視化(FV)を操作する新しい手法を提案する。
ニューラルネットワークモデルにおける本手法の有効性を評価し,任意の選択したニューロンの機能を隠蔽する能力を示す。
論文 参考訳(メタデータ) (2024-01-11T18:57:17Z) - AS-XAI: Self-supervised Automatic Semantic Interpretation for CNN [5.42467030980398]
本稿では,自動意味解釈人工知能(AS-XAI)フレームワークを提案する。
モデル決定のグローバルな意味解釈には、透過的な埋め込み意味抽出空間と行中心主成分分析(PCA)を用いる。
提案手法は, 流通圏内における共通意味論的解釈を含む, 広範囲な実践的応用を提供する。
論文 参考訳(メタデータ) (2023-12-02T10:06:54Z) - Understanding CNN Hidden Neuron Activations Using Structured Background
Knowledge and Deductive Reasoning [3.6223658572137825]
最先端技術は、隠されたノードのアクティベーションが、場合によっては人間にとって意味のある方法で解釈可能であることを示している。
畳み込みニューラルネットワークの高密度層において,背景知識から意味のあるラベルを個々のニューロンに自動的にアタッチできることを示す。
論文 参考訳(メタデータ) (2023-08-08T02:28:50Z) - Adversarial Attacks on the Interpretation of Neuron Activation
Maximization [70.5472799454224]
アクティベーション最大化アプローチは、訓練されたディープラーニングモデルの解釈と解析に使用される。
本研究では,解釈を欺くためにモデルを操作する敵の概念を考察する。
論文 参考訳(メタデータ) (2023-06-12T19:54:33Z) - Imitation Learning-based Implicit Semantic-aware Communication Networks:
Multi-layer Representation and Collaborative Reasoning [68.63380306259742]
有望な可能性にもかかわらず、セマンティック通信とセマンティック・アウェア・ネットワーキングはまだ初期段階にある。
本稿では,CDCとエッジサーバの複数層を連携させる,推論に基づく暗黙的セマンティック・アウェア通信ネットワークアーキテクチャを提案する。
暗黙的セマンティクスの階層構造と個人ユーザのパーソナライズされた推論嗜好を考慮に入れたセマンティクス情報の多層表現を提案する。
論文 参考訳(メタデータ) (2022-10-28T13:26:08Z) - Neuro-Symbolic Artificial Intelligence (AI) for Intent based Semantic
Communication [85.06664206117088]
6Gネットワークはデータ転送のセマンティクスと有効性(エンドユーザ)を考慮する必要がある。
観測データの背後にある因果構造を学習するための柱としてNeSy AIが提案されている。
GFlowNetは、無線システムにおいて初めて活用され、データを生成する確率構造を学ぶ。
論文 参考訳(メタデータ) (2022-05-22T07:11:57Z) - Interpretable part-whole hierarchies and conceptual-semantic
relationships in neural networks [4.153804257347222]
本稿では、視覚的手がかりから部分全体階層を表現できるフレームワークであるAgglomeratorについて述べる。
本研究では,SmallNORB,MNIST,FashionMNIST,CIFAR-10,CIFAR-100などの共通データセットを用いて評価を行った。
論文 参考訳(メタデータ) (2022-03-07T10:56:13Z) - An Interpretability Illusion for BERT [61.2687465308121]
BERTモデル解析時に生じる「解釈性イリュージョン」について述べる。
このイリュージョンの源をBERTの埋め込み空間の幾何学的性質にトレースする。
モデル学習概念の分類法を提供し,解釈可能性研究の方法論的意義について論じる。
論文 参考訳(メタデータ) (2021-04-14T22:04:48Z) - A Chain Graph Interpretation of Real-World Neural Networks [58.78692706974121]
本稿では,NNを連鎖グラフ(CG)、フィードフォワードを近似推論手法として識別する別の解釈を提案する。
CG解釈は、確率的グラフィカルモデルのリッチな理論的枠組みの中で、各NNコンポーネントの性質を規定する。
我々は,CG解釈が様々なNN技術に対する新しい理論的支援と洞察を提供することを示す具体例を実例で示す。
論文 参考訳(メタデータ) (2020-06-30T14:46:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。