論文の概要: Towards the Characterization of Representations Learned via Capsule-based Network Architectures
- arxiv url: http://arxiv.org/abs/2305.05349v2
- Date: Fri, 13 Dec 2024 15:17:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-16 15:00:54.494842
- Title: Towards the Characterization of Representations Learned via Capsule-based Network Architectures
- Title(参考訳): カプセル型ネットワークアーキテクチャで学習した表現のキャラクタリゼーションに向けて
- Authors: Saja Tawalbeh, José Oramas,
- Abstract要約: Capsule Networks (CapsNets) は、標準的なディープニューラルネットワークのよりコンパクトで解釈可能な代替品として再導入された。
本稿では,これらのタイプのネットワークの解釈可能性を評価するための,体系的で原則的な研究を行う。
MNIST, SVHN, PASCAL-part, CelebAデータセットにおける解析から, CapsNetsで符号化された表現は, 文献で一般的に述べられているような部分的関係とは無関係で, 厳密には関係がない可能性が示唆された。
- 参考スコア(独自算出の注目度): 0.810304644344495
- License:
- Abstract: Capsule Networks (CapsNets) have been re-introduced as a more compact and interpretable alternative to standard deep neural networks. While recent efforts have proved their compression capabilities, to date, their interpretability properties have not been fully assessed. Here, we conduct a systematic and principled study towards assessing the interpretability of these types of networks. Moreover, we pay special attention towards analyzing the level to which part-whole relationships are indeed encoded within the learned representation. Our analysis in the MNIST, SVHN, PASCAL-part and CelebA datasets suggest that the representations encoded in CapsNets might not be as disentangled nor strictly related to parts-whole relationships as is commonly stated in the literature.
- Abstract(参考訳): Capsule Networks (CapsNets) は、標準的なディープニューラルネットワークのよりコンパクトで解釈可能な代替品として再導入された。
最近の研究で圧縮性能が証明されているが、その解釈可能性特性は十分に評価されていない。
本稿では,これらのタイプのネットワークの解釈可能性を評価するための,体系的で原則的な研究を行う。
さらに,この学習表現の中で,部分的関係が実際にコード化されているレベルを分析することにも注意を払っている。
MNIST, SVHN, PASCAL-part, CelebAデータセットにおける解析から, CapsNetsで符号化された表現は, 文献で一般的に述べられているような部分的関係とは無関係で, 厳密には関係がない可能性が示唆された。
関連論文リスト
- Relational Composition in Neural Networks: A Survey and Call to Action [54.47858085003077]
多くのニューラルネットは、データを「機能ベクトル」の線形結合として表現しているように見える。
我々は、この成功は関係性の構成を理解せずに不完全であると主張する。
論文 参考訳(メタデータ) (2024-07-19T20:50:57Z) - Coding schemes in neural networks learning classification tasks [52.22978725954347]
完全接続型広義ニューラルネットワーク学習タスクについて検討する。
ネットワークが強力なデータ依存機能を取得することを示す。
驚くべきことに、内部表現の性質は神経の非線形性に大きく依存する。
論文 参考訳(メタデータ) (2024-06-24T14:50:05Z) - Deep Neural Networks Tend To Extrapolate Predictably [51.303814412294514]
ニューラルネットワークの予測は、アウト・オブ・ディストリビューション(OOD)入力に直面した場合、予測不可能で過信される傾向がある。
我々は、入力データがOODになるにつれて、ニューラルネットワークの予測が一定値に向かう傾向があることを観察する。
我々は、OOD入力の存在下でリスクに敏感な意思決定を可能にするために、私たちの洞察を実際に活用する方法を示します。
論文 参考訳(メタデータ) (2023-10-02T03:25:32Z) - Generalization analysis of an unfolding network for analysis-based
Compressed Sensing [27.53377180094267]
展開ネットワークは、圧縮センシング(CS)分野において有望な結果を示している。
本稿では,最先端ADMMに基づく展開ネットワークの一般化解析を行う。
論文 参考訳(メタデータ) (2023-03-09T21:13:32Z) - Rank Diminishing in Deep Neural Networks [71.03777954670323]
ニューラルネットワークのランクは、層をまたがる情報を測定する。
これは機械学習の幅広い領域にまたがる重要な構造条件の例である。
しかし、ニューラルネットワークでは、低ランク構造を生み出す固有のメカニズムはあいまいで不明瞭である。
論文 参考訳(メタデータ) (2022-06-13T12:03:32Z) - DECONET: an Unfolding Network for Analysis-based Compressed Sensing with
Generalization Error Bounds [27.53377180094267]
解析スパーシティーに基づく圧縮センシングのための新しい深部展開ネットワークを提案する。
提案するネットワークデコードネットワーク(DECONET)は,ベクトルを不完全でノイズの多い測定値から再構成するデコーダを共同で学習する。
論文 参考訳(メタデータ) (2022-05-14T12:50:48Z) - Interpretable part-whole hierarchies and conceptual-semantic
relationships in neural networks [4.153804257347222]
本稿では、視覚的手がかりから部分全体階層を表現できるフレームワークであるAgglomeratorについて述べる。
本研究では,SmallNORB,MNIST,FashionMNIST,CIFAR-10,CIFAR-100などの共通データセットを用いて評価を行った。
論文 参考訳(メタデータ) (2022-03-07T10:56:13Z) - ADMM-DAD net: a deep unfolding network for analysis compressed sensing [20.88999913266683]
圧縮センシング解析のためのADMMアルゴリズムに基づく新しい深部展開ニューラルネットワークを提案する。
提案するネットワークは、スパーシフィケーションのための冗長解析演算子を共同で学習し、関心のシグナルを再構成する。
論文 参考訳(メタデータ) (2021-10-13T18:56:59Z) - Discovering "Semantics" in Super-Resolution Networks [54.45509260681529]
超解像(SR)は低レベルの視覚領域の基本的で代表的な課題である。
一般に、SRネットワークから抽出された特徴は特定の意味情報を持たないと考えられている。
SRネットワークで「セマンティック」を見つけることはできますか?
論文 参考訳(メタデータ) (2021-08-01T09:12:44Z) - SNoRe: Scalable Unsupervised Learning of Symbolic Node Representations [0.0]
提案したSNoReアルゴリズムは、個々のネットワークノードのシンボリックで人間の理解可能な表現を学習することができる。
SNoReの解釈可能な特徴は、個々の予測を直接説明するのに適している。
SNoReのベクトル化実装は大規模ネットワークにスケールし、現代のネットワーク学習および分析タスクに適している。
論文 参考訳(メタデータ) (2020-09-08T08:13:21Z) - Understanding Generalization in Deep Learning via Tensor Methods [53.808840694241]
圧縮の観点から,ネットワークアーキテクチャと一般化可能性の関係について理解を深める。
本稿では、ニューラルネットワークの圧縮性と一般化性を強く特徴付ける、直感的で、データ依存的で、測定が容易な一連の特性を提案する。
論文 参考訳(メタデータ) (2020-01-14T22:26:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。