論文の概要: Inducing Semantic Grouping of Latent Concepts for Explanations: An
Ante-Hoc Approach
- arxiv url: http://arxiv.org/abs/2108.11761v1
- Date: Wed, 25 Aug 2021 07:09:57 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-27 14:12:18.101757
- Title: Inducing Semantic Grouping of Latent Concepts for Explanations: An
Ante-Hoc Approach
- Title(参考訳): 説明のための潜在概念のセマンティックグルーピング:アンテホックアプローチ
- Authors: Anirban Sarkar, Deepak Vijaykeerthy, Anindya Sarkar, Vineeth N
Balasubramanian
- Abstract要約: 我々は,潜伏状態を利用してモデルの異なる部分を適切に修正することにより,より良い説明が得られ,予測性能が向上することを示した。
また,2つの異なる自己スーパービジョン技術を用いて,考察対象の自己スーパービジョンのタイプに関連する意味ある概念を抽出する手法を提案した。
- 参考スコア(独自算出の注目度): 18.170504027784183
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Self-explainable deep models are devised to represent the hidden concepts in
the dataset without requiring any posthoc explanation generation technique. We
worked with one of such models motivated by explicitly representing the
classifier function as a linear function and showed that by exploiting
probabilistic latent and properly modifying different parts of the model can
result better explanation as well as provide superior predictive performance.
Apart from standard visualization techniques, we proposed a new technique which
can strengthen human understanding towards hidden concepts. We also proposed a
technique of using two different self-supervision techniques to extract
meaningful concepts related to the type of self-supervision considered and
achieved significant performance boost. The most important aspect of our method
is that it works nicely in a low data regime and reaches the desired accuracy
in a few number of epochs. We reported exhaustive results with CIFAR10,
CIFAR100, and AWA2 datasets to show effect of our method with moderate and
relatively complex datasets.
- Abstract(参考訳): 自己説明可能な深層モデルは、ポストホックな説明生成手法を必要とせずにデータセット内の隠れた概念を表現するために考案される。
分類子関数を線形関数として明示的に表現することで動機づけられたモデルの一つに取り組み,確率的潜在性を利用してモデルの異なる部分を適切に修正することで,より優れた説明と優れた予測性能が得られることを示した。
標準的な可視化技術とは別に,隠れた概念に対する人間の理解を強化する新しい手法を提案した。
また, 2つの異なる自己スーパービジョン技術を用いて, 自己スーパービジョンのタイプに関連する有意義な概念を抽出し, 有意な性能向上を達成する手法を提案した。
我々の手法の最も重要な側面は、低いデータ構造でうまく機能し、いくつかのエポックにおいて所望の精度に達することである。
CIFAR10, CIFAR100, AWA2データセットを用いて, 中等度かつ比較的複雑なデータセットを用いた手法の有効性を示す。
関連論文リスト
- Exploring the Trade-off Between Model Performance and Explanation Plausibility of Text Classifiers Using Human Rationales [3.242050660144211]
ホック後説明可能性法は、ますます複雑なNLPモデルを理解するための重要なツールである。
本稿では,人間の判断を説明するテキストアノテーションをテキスト分類モデルに組み込む手法を提案する。
論文 参考訳(メタデータ) (2024-04-03T22:39:33Z) - Beyond explaining: XAI-based Adaptive Learning with SHAP Clustering for
Energy Consumption Prediction [0.0]
モデル予測を説明するためのSHAP値を取得し、異なるパターンと外れ値を特定するためのSHAP値をクラスタリングし、派生したSHAPクラスタリング特性に基づいてモデルを精錬する。
両タスクタイプにおいて,本手法の有効性を実証し,予測性能と解釈可能なモデル説明の改善を図った。
論文 参考訳(メタデータ) (2024-02-07T15:58:51Z) - Harnessing Diffusion Models for Visual Perception with Meta Prompts [68.78938846041767]
本稿では,視覚知覚タスクの拡散モデルを用いた簡易かつ効果的な手法を提案する。
学習可能な埋め込み(メタプロンプト)を事前学習した拡散モデルに導入し、知覚の適切な特徴を抽出する。
提案手法は,NYU 深度 V2 と KITTI の深度推定タスク,および CityScapes のセマンティックセグメンテーションタスクにおいて,新しい性能記録を実現する。
論文 参考訳(メタデータ) (2023-12-22T14:40:55Z) - Benchmarking and Enhancing Disentanglement in Concept-Residual Models [4.177318966048984]
概念ボトルネックモデル (CBM) は、まず意味論的に意味のある一連の特徴を予測する解釈可能なモデルである。
CBMの性能はエンジニアリングされた機能に依存しており、不完全な概念のセットに苦しむことがある。
本研究は,情報漏洩を解消するための3つの新しい手法を提案する。
論文 参考訳(メタデータ) (2023-11-30T21:07:26Z) - Towards interpretable-by-design deep learning algorithms [11.154826546951414]
I という名前のフレームワークは、標準教師付き分類問題をトレーニングデータから派生したプロトタイプのセットに類似した関数に再キャストする。
本稿では,そのようなDLモデルを概念的にシンプルで説明可能なプロトタイプモデルにすることができることを示す。
論文 参考訳(メタデータ) (2023-11-19T18:40:49Z) - MACE: An Efficient Model-Agnostic Framework for Counterfactual
Explanation [132.77005365032468]
MACE(Model-Agnostic Counterfactual Explanation)の新たな枠組みを提案する。
MACE法では, 優れた反実例を見つけるための新しいRL法と, 近接性向上のための勾配のない降下法を提案する。
公開データセットの実験は、有効性、空間性、近接性を向上して検証する。
論文 参考訳(メタデータ) (2022-05-31T04:57:06Z) - Bayesian Graph Contrastive Learning [55.36652660268726]
本稿では,ランダムな拡張がエンコーダにつながることを示すグラフコントラスト学習手法の新たな視点を提案する。
提案手法は,各ノードを決定論的ベクトルに埋め込む既存の手法とは対照的に,各ノードを潜在空間の分布で表現する。
いくつかのベンチマークデータセットにおける既存の最先端手法と比較して,性能が大幅に向上したことを示す。
論文 参考訳(メタデータ) (2021-12-15T01:45:32Z) - From Canonical Correlation Analysis to Self-supervised Graph Neural
Networks [99.44881722969046]
本稿では,グラフデータを用いた自己教師付き表現学習のための概念的単純かつ効果的なモデルを提案する。
古典的カノニカル相関解析にインスパイアされた,革新的な特徴レベルの目的を最適化する。
提案手法は、7つの公開グラフデータセット上で競合的に動作する。
論文 参考訳(メタデータ) (2021-06-23T15:55:47Z) - A Diagnostic Study of Explainability Techniques for Text Classification [52.879658637466605]
既存の説明可能性技術を評価するための診断特性のリストを作成する。
そこで本研究では, モデルの性能と有理性との整合性の関係を明らかにするために, 説明可能性手法によって割り当てられた有理性スコアと有理性入力領域の人間のアノテーションを比較した。
論文 参考訳(メタデータ) (2020-09-25T12:01:53Z) - Two-Level Adversarial Visual-Semantic Coupling for Generalized Zero-shot
Learning [21.89909688056478]
トレーニング中に推論ネットワークを用いて生成ネットワークを増強する2段階のジョイントアイデアを提案する。
これにより、ビジュアルドメインとセマンティックドメイン間の効果的な知識伝達のための強力な相互モーダル相互作用が提供される。
提案手法は,4つのベンチマークデータセットに対して,いくつかの最先端手法に対して評価し,その性能を示す。
論文 参考訳(メタデータ) (2020-07-15T15:34:09Z) - Closed-Form Factorization of Latent Semantics in GANs [65.42778970898534]
画像合成のために訓練されたGAN(Generative Adversarial Networks)の潜在空間に、解釈可能な次元の豊富なセットが出現することが示されている。
本研究では,GANが学習した内部表現について検討し,その基礎となる変動要因を教師なしで明らかにする。
本稿では,事前学習した重みを直接分解することで,潜在意味発見のためのクローズドフォーム因数分解アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-07-13T18:05:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。