論文の概要: Learning Semantically Meaningful Features for Interpretable
Classifications
- arxiv url: http://arxiv.org/abs/2101.03919v1
- Date: Mon, 11 Jan 2021 14:35:16 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-04 14:40:55.780293
- Title: Learning Semantically Meaningful Features for Interpretable
Classifications
- Title(参考訳): 解釈可能な分類のための意味論的特徴の学習
- Authors: Sandareka Wickramanayake, Wynne Hsu, Mong Li Lee
- Abstract要約: SemCNNは視覚特徴と単語句の関連を学習する。
複数のベンチマークデータセットの実験結果は、SemCNNが明確な意味を持つ特徴を学習できることを実証している。
- 参考スコア(独自算出の注目度): 17.88784870849724
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning semantically meaningful features is important for Deep Neural
Networks to win end-user trust. Attempts to generate post-hoc explanations fall
short in gaining user confidence as they do not improve the interpretability of
feature representations learned by the models. In this work, we propose
Semantic Convolutional Neural Network (SemCNN) that has an additional Concept
layer to learn the associations between visual features and word phrases.
SemCNN employs an objective function that optimizes for both the prediction
accuracy as well as the semantic meaningfulness of the learned feature
representations. Further, SemCNN makes its decisions as a weighted sum of the
contributions of these features leading to fully interpretable decisions.
Experiment results on multiple benchmark datasets demonstrate that SemCNN can
learn features with clear semantic meaning and their corresponding
contributions to the model decision without compromising prediction accuracy.
Furthermore, these learned concepts are transferrable and can be applied to new
classes of objects that have similar concepts.
- Abstract(参考訳): 意味的に意味のある特徴を学ぶことは、ディープニューラルネットワークがエンドユーザの信頼を勝ち取るために重要である。
モデルで学習した特徴表現の解釈性を改善しないため, ポストホックな説明を生成する試みは, ユーザの信頼を得るには不十分である。
本稿では,視覚特徴と単語句の関係を学習するための概念層を付加した意味畳み込みニューラルネットワーク(semcnn)を提案する。
SemCNNは、予測精度と学習した特徴表現の意味論的意味の両方を最適化する目的関数を用いる。
さらに、semcnnはこれらの機能の貢献の重み付けとして決定を下し、完全に解釈可能な決定へと導く。
複数のベンチマークデータセットによる実験結果から,SemCNNは,予測精度を損なうことなく,意味を明確化し,モデル決定に寄与する特徴を学習できることが示されている。
さらに、これらの学習された概念は転送可能であり、同様の概念を持つオブジェクトの新しいクラスに適用することができる。
関連論文リスト
- Manipulating Feature Visualizations with Gradient Slingshots [54.31109240020007]
本稿では,モデルの決定過程に大きな影響を及ぼすことなく,特徴可視化(FV)を操作する新しい手法を提案する。
ニューラルネットワークモデルにおける本手法の有効性を評価し,任意の選択したニューロンの機能を隠蔽する能力を示す。
論文 参考訳(メタデータ) (2024-01-11T18:57:17Z) - Seeing in Words: Learning to Classify through Language Bottlenecks [59.97827889540685]
人間は簡潔で直感的な説明を使って予測を説明することができる。
特徴表現がテキストである視覚モデルでは,画像ネットイメージを効果的に分類できることを示す。
論文 参考訳(メタデータ) (2023-06-29T00:24:42Z) - NxPlain: Web-based Tool for Discovery of Latent Concepts [16.446370662629555]
提案するNxPlainは,潜在概念を用いたモデル予測を記述したWebアプリケーションである。
NxPlainは、深いNLPモデルで学んだ潜在概念を発見し、モデルで学んだ知識の解釈を提供し、使用した概念に基づいてその予測を説明する。
論文 参考訳(メタデータ) (2023-03-06T10:45:24Z) - TCNL: Transparent and Controllable Network Learning Via Embedding
Human-Guided Concepts [10.890006696574803]
本稿では,これらの課題を克服するために,トランスペアレントかつ制御可能なネットワーク学習(TCNL)を提案する。
透明性と解釈性を向上する目的に向けて、TNLでは、科学的人間の直観研究を通じて、特定の分類タスクに対するいくつかの概念を定義している。
また,概念抽出器によって抽出された特徴を人間の直感的に可視化する概念マッパーを構築した。
論文 参考訳(メタデータ) (2022-10-07T01:18:37Z) - Knowledge Enhanced Neural Networks for relational domains [83.9217787335878]
我々は、ニューラルネットワークに事前論理的知識を注入するニューラルネットワークアーキテクチャであるKENNに焦点を当てる。
本稿では,関係データに対するKENNの拡張を提案する。
論文 参考訳(メタデータ) (2022-05-31T13:00:34Z) - Self-Supervised Representation Learning on Neural Network Weights for
Model Characteristic Prediction [1.9659095632676094]
自己監視学習(SSL)は有用かつ情報保存的な表現を学ぶことが示されている。
ニューラルネットワーク(NN)の人口重みのニューラルネットワーク表現をSSLで学習することを提案する。
実験により,本領域における自己教師型表現学習は,様々なNNモデル特性を回復できることが示された。
論文 参考訳(メタデータ) (2021-10-28T16:48:15Z) - Variational Structured Attention Networks for Deep Visual Representation
Learning [49.80498066480928]
空間的注意マップとチャネル的注意の両方を原則的に共同学習するための統合的深層フレームワークを提案する。
具体的には,確率的表現学習フレームワークに注目度の推定と相互作用を統合する。
ニューラルネットワーク内で推論ルールを実装し,確率パラメータとcnnフロントエンドパラメータのエンドツーエンド学習を可能にする。
論文 参考訳(メタデータ) (2021-03-05T07:37:24Z) - Explaining and Improving Model Behavior with k Nearest Neighbor
Representations [107.24850861390196]
モデルの予測に責任のあるトレーニング例を特定するために, k 近傍表現を提案する。
我々は,kNN表現が学習した素因関係を明らかにするのに有効であることを示す。
以上の結果から,kNN手法により,直交モデルが逆入力に対してより堅牢であることが示唆された。
論文 参考訳(メタデータ) (2020-10-18T16:55:25Z) - Contextual Semantic Interpretability [16.18912769522768]
コンテキストをキャプチャするセマンティックボトルネックを調べます。
属性を解釈可能なスパースグループに集約する2層セマンティックボトルネックを使用する。
本モデルでは,Flickr画像の実際のテストセットに適用した場合,非解釈ベースラインと同程度の精度で予測を行う。
論文 参考訳(メタデータ) (2020-09-18T09:47:05Z) - Neural Networks Enhancement with Logical Knowledge [83.9217787335878]
関係データに対するKENNの拡張を提案する。
その結果、KENNは、存在関係データにおいても、基礎となるニューラルネットワークの性能を高めることができることがわかった。
論文 参考訳(メタデータ) (2020-09-13T21:12:20Z) - Making Sense of CNNs: Interpreting Deep Representations & Their
Invariances with INNs [19.398202091883366]
INN に基づくアプローチとして, (i) タスク固有の学習的不変性を, (ii) モデル表現と組み合わさった不変性を, (ii) アクセシブルなセマンティックな概念によって, 可逆的に変換する手法を提案する。
我々の非可逆的アプローチは、その性能を損なうことなく、最先端ネットワークのポストホックな解釈を可能にすることでブラックボックスモデルを理解する能力を大幅に拡張する。
論文 参考訳(メタデータ) (2020-08-04T19:27:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。