論文の概要: Towards Disentangling Information Paths with Coded ResNeXt
- arxiv url: http://arxiv.org/abs/2202.05343v2
- Date: Wed, 20 Sep 2023 13:57:27 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-22 01:06:18.815638
- Title: Towards Disentangling Information Paths with Coded ResNeXt
- Title(参考訳): Coded ResNeXtによる情報経路の分散化
- Authors: Apostolos Avranas and Marios Kountouris
- Abstract要約: ネットワーク全体の機能の透明性を高めるために,我々は新しいアプローチを採っている。
分類のためのニューラルネットワークアーキテクチャを提案し、各クラスに関連する情報が特定の経路を流れる。
- 参考スコア(独自算出の注目度): 11.884259630414515
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The conventional, widely used treatment of deep learning models as black
boxes provides limited or no insights into the mechanisms that guide neural
network decisions. Significant research effort has been dedicated to building
interpretable models to address this issue. Most efforts either focus on the
high-level features associated with the last layers, or attempt to interpret
the output of a single layer. In this paper, we take a novel approach to
enhance the transparency of the function of the whole network. We propose a
neural network architecture for classification, in which the information that
is relevant to each class flows through specific paths. These paths are
designed in advance before training leveraging coding theory and without
depending on the semantic similarities between classes. A key property is that
each path can be used as an autonomous single-purpose model. This enables us to
obtain, without any additional training and for any class, a lightweight binary
classifier that has at least $60\%$ fewer parameters than the original network.
Furthermore, our coding theory based approach allows the neural network to make
early predictions at intermediate layers during inference, without requiring
its full evaluation. Remarkably, the proposed architecture provides all the
aforementioned properties while improving the overall accuracy. We demonstrate
these properties on a slightly modified ResNeXt model tested on CIFAR-10/100
and ImageNet-1k.
- Abstract(参考訳): 従来のブラックボックスとして広く使われているディープラーニングモデルの扱いは、ニューラルネットワークの決定を導くメカニズムについて、限られた、あるいは全く洞察を与えない。
この問題に対処するための解釈可能なモデルの構築に、重要な研究努力が注がれている。
ほとんどの取り組みは、最後のレイヤに関連するハイレベルな機能にフォーカスするか、単一のレイヤの出力を解釈しようとするかのどちらかです。
本稿では,ネットワーク全体の機能の透明性を高めるための新しいアプローチを提案する。
本稿では,各クラスに関連する情報が特定の経路を流れる分類のためのニューラルネットワークアーキテクチャを提案する。
これらの経路は、コーディング理論を利用する訓練の前に事前に設計され、クラス間の意味的類似性に依存しない。
重要な特性は、各パスが自律的な単一目的モデルとして使用できることである。
これにより、追加のトレーニングなしで、任意のクラスに対して、元のネットワークよりも少なくとも60\%$のパラメータを持つ軽量バイナリ分類器を得ることができる。
さらに, 符号化理論に基づく手法により, ニューラルネットワークは推論中に中間層で初期予測を行うことができ, 完全な評価を必要としない。
注目すべきは、提案されたアーキテクチャは、上記のすべての特性を提供しながら、全体的な精度を向上させることである。
CIFAR-10/100 と ImageNet-1k でテストした ResNeXt モデル上でこれらの特性を示す。
関連論文リスト
- Informed deep hierarchical classification: a non-standard analysis inspired approach [0.0]
出力層の前に配置された特定のプロジェクション演算子を備えた多出力ディープニューラルネットワークで構成されている。
このようなアーキテクチャの設計は、LH-DNN(Lexicographic Hybrid Deep Neural Network)と呼ばれ、異なる研究分野と非常に離れた研究分野のツールを組み合わせることで実現されている。
アプローチの有効性を評価するために、階層的な分類タスクに適した畳み込みニューラルネットワークであるB-CNNと比較する。
論文 参考訳(メタデータ) (2024-09-25T14:12:50Z) - Towards Scalable and Versatile Weight Space Learning [51.78426981947659]
本稿では,重み空間学習におけるSANEアプローチを紹介する。
ニューラルネットワーク重みのサブセットの逐次処理に向けて,超表現の概念を拡張した。
論文 参考訳(メタデータ) (2024-06-14T13:12:07Z) - Principled Architecture-aware Scaling of Hyperparameters [69.98414153320894]
高品質のディープニューラルネットワークをトレーニングするには、非自明で高価なプロセスである適切なハイパーパラメータを選択する必要がある。
本研究では,ネットワークアーキテクチャにおける初期化と最大学習率の依存性を正確に評価する。
ネットワークランキングは、ベンチマークのトレーニングネットワークにより容易に変更可能であることを実証する。
論文 参考訳(メタデータ) (2024-02-27T11:52:49Z) - Exploring Learned Representations of Neural Networks with Principal
Component Analysis [1.0923877073891446]
ある層では、高い精度の分類には中間的特徴空間分散の20%しか必要としない。
本研究は神経崩壊と相関し, 中間神経崩壊の関連現象の部分的証拠を提供する。
論文 参考訳(メタデータ) (2023-09-27T00:18:25Z) - Dynamic Perceiver for Efficient Visual Recognition [87.08210214417309]
特徴抽出手順と早期分類タスクを分離する動的知覚器(Dyn-Perceiver)を提案する。
特徴ブランチは画像の特徴を抽出し、分類ブランチは分類タスクに割り当てられた遅延コードを処理する。
早期出口は分類枝に限られており、低レベルの特徴において線形分離性は不要である。
論文 参考訳(メタデータ) (2023-06-20T03:00:22Z) - Hidden Classification Layers: Enhancing linear separability between
classes in neural networks layers [0.0]
トレーニング手法の深層ネットワーク性能への影響について検討する。
本稿では,全てのネットワークレイヤの出力を含むエラー関数を誘導するニューラルネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-06-09T10:52:49Z) - NAR-Former: Neural Architecture Representation Learning towards Holistic
Attributes Prediction [37.357949900603295]
本稿では,属性の全体的推定に使用できるニューラルネットワーク表現モデルを提案する。
実験の結果,提案するフレームワークは,セルアーキテクチャとディープニューラルネットワーク全体の遅延特性と精度特性を予測できることがわかった。
論文 参考訳(メタデータ) (2022-11-15T10:15:21Z) - Adaptive Convolutional Dictionary Network for CT Metal Artifact
Reduction [62.691996239590125]
本稿では,金属人工物削減のための適応畳み込み辞書ネットワーク(ACDNet)を提案する。
我々のACDNetは、トレーニングデータを介して、アーティファクトフリーCT画像の事前を自動で学習し、入力されたCT画像ごとに表現カーネルを適応的に調整することができる。
本手法は,モデルに基づく手法の明確な解釈可能性を継承し,学習に基づく手法の強力な表現能力を維持する。
論文 参考訳(メタデータ) (2022-05-16T06:49:36Z) - Neural networks with linear threshold activations: structure and
algorithms [1.795561427808824]
クラス内で表現可能な関数を表現するのに、2つの隠れたレイヤが必要であることを示す。
また、クラス内の任意の関数を表すのに必要なニューラルネットワークのサイズについて、正確な境界を与える。
我々は,線形しきい値ネットワークと呼ばれるニューラルネットワークの新たなクラスを提案する。
論文 参考訳(メタデータ) (2021-11-15T22:33:52Z) - Network Adjustment: Channel Search Guided by FLOPs Utilization Ratio [101.84651388520584]
本稿では,ネットワークの精度をFLOPの関数として考慮した,ネットワーク調整という新しいフレームワークを提案する。
標準画像分類データセットと幅広いベースネットワークの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2020-04-06T15:51:00Z) - Dynamic Hierarchical Mimicking Towards Consistent Optimization
Objectives [73.15276998621582]
一般化能力を高めたCNN訓練を推進するための汎用的特徴学習機構を提案する。
DSNに部分的にインスパイアされた私たちは、ニューラルネットワークの中間層から微妙に設計されたサイドブランチをフォークしました。
カテゴリ認識タスクとインスタンス認識タスクの両方の実験により,提案手法の大幅な改善が示された。
論文 参考訳(メタデータ) (2020-03-24T09:56:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。