論文の概要: Coded ResNeXt: a network for designing disentangled information paths
- arxiv url: http://arxiv.org/abs/2202.05343v1
- Date: Thu, 10 Feb 2022 21:45:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-14 14:45:44.197265
- Title: Coded ResNeXt: a network for designing disentangled information paths
- Title(参考訳): Coded ResNeXt: 絡み合った情報経路を設計するためのネットワーク
- Authors: Apostolos Avranas and Marios Kountouris
- Abstract要約: 本稿では,クラスごとの情報の流れを学習する前に,ネットワークの経路を定義するアルゴリズムを提案する。
我々は,CIFAR-10/100 と ImageNet の分類精度を高めるために,アルゴリズムを用いて学習したわずかに改良された ResNeXt モデルを実証した。
- 参考スコア(独自算出の注目度): 6.485125354384854
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To avoid treating neural networks as highly complex black boxes, the deep
learning research community has tried to build interpretable models allowing
humans to understand the decisions taken by the model. Unfortunately, the focus
is mostly on manipulating only the very high-level features associated with the
last layers. In this work, we look at neural network architectures for
classification in a more general way and introduce an algorithm which defines
before the training the paths of the network through which the per-class
information flows. We show that using our algorithm we can extract a lighter
single-purpose binary classifier for a particular class by removing the
parameters that do not participate in the predefined information path of that
class, which is approximately 60% of the total parameters. Notably, leveraging
coding theory to design the information paths enables us to use intermediate
network layers for making early predictions without having to evaluate the full
network. We demonstrate that a slightly modified ResNeXt model, trained with
our algorithm, can achieve higher classification accuracy on CIFAR-10/100 and
ImageNet than the original ResNeXt, while having all the aforementioned
properties.
- Abstract(参考訳): ニューラルネットワークを非常に複雑なブラックボックスとして扱うことを避けるため、ディープラーニング研究コミュニティは、人間がモデルによってなされる決定を理解するための解釈可能なモデルを構築しようとした。
残念ながら、主に最終レイヤに関連する非常に高いレベルの機能のみを操作することに焦点を当てています。
本研究では、より一般的な方法で分類のためのニューラルネットワークアーキテクチャを考察し、クラスごとの情報の流れを学習する前に定義するアルゴリズムを導入する。
本アルゴリズムでは,そのクラスに予め定義された情報パスに含まれていないパラメータを除去することにより,より軽量な単一目的バイナリ分類器を抽出できることが示される。
特に、符号化理論を利用して情報経路を設計することで、完全なネットワークを評価することなく、中間層を用いて早期予測を行うことができる。
本稿では,アルゴリズムを用いて学習したResNeXtモデルを用いて,CIFAR-10/100とImageNetの分類精度を元のResNeXtよりも高めることができることを示す。
関連論文リスト
- Informed deep hierarchical classification: a non-standard analysis inspired approach [0.0]
出力層の前に配置された特定のプロジェクション演算子を備えた多出力ディープニューラルネットワークで構成されている。
このようなアーキテクチャの設計は、LH-DNN(Lexicographic Hybrid Deep Neural Network)と呼ばれ、異なる研究分野と非常に離れた研究分野のツールを組み合わせることで実現されている。
アプローチの有効性を評価するために、階層的な分類タスクに適した畳み込みニューラルネットワークであるB-CNNと比較する。
論文 参考訳(メタデータ) (2024-09-25T14:12:50Z) - Towards Scalable and Versatile Weight Space Learning [51.78426981947659]
本稿では,重み空間学習におけるSANEアプローチを紹介する。
ニューラルネットワーク重みのサブセットの逐次処理に向けて,超表現の概念を拡張した。
論文 参考訳(メタデータ) (2024-06-14T13:12:07Z) - Principled Architecture-aware Scaling of Hyperparameters [69.98414153320894]
高品質のディープニューラルネットワークをトレーニングするには、非自明で高価なプロセスである適切なハイパーパラメータを選択する必要がある。
本研究では,ネットワークアーキテクチャにおける初期化と最大学習率の依存性を正確に評価する。
ネットワークランキングは、ベンチマークのトレーニングネットワークにより容易に変更可能であることを実証する。
論文 参考訳(メタデータ) (2024-02-27T11:52:49Z) - Exploring Learned Representations of Neural Networks with Principal
Component Analysis [1.0923877073891446]
ある層では、高い精度の分類には中間的特徴空間分散の20%しか必要としない。
本研究は神経崩壊と相関し, 中間神経崩壊の関連現象の部分的証拠を提供する。
論文 参考訳(メタデータ) (2023-09-27T00:18:25Z) - Dynamic Perceiver for Efficient Visual Recognition [87.08210214417309]
特徴抽出手順と早期分類タスクを分離する動的知覚器(Dyn-Perceiver)を提案する。
特徴ブランチは画像の特徴を抽出し、分類ブランチは分類タスクに割り当てられた遅延コードを処理する。
早期出口は分類枝に限られており、低レベルの特徴において線形分離性は不要である。
論文 参考訳(メタデータ) (2023-06-20T03:00:22Z) - Hidden Classification Layers: Enhancing linear separability between
classes in neural networks layers [0.0]
トレーニング手法の深層ネットワーク性能への影響について検討する。
本稿では,全てのネットワークレイヤの出力を含むエラー関数を誘導するニューラルネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-06-09T10:52:49Z) - NAR-Former: Neural Architecture Representation Learning towards Holistic
Attributes Prediction [37.357949900603295]
本稿では,属性の全体的推定に使用できるニューラルネットワーク表現モデルを提案する。
実験の結果,提案するフレームワークは,セルアーキテクチャとディープニューラルネットワーク全体の遅延特性と精度特性を予測できることがわかった。
論文 参考訳(メタデータ) (2022-11-15T10:15:21Z) - Adaptive Convolutional Dictionary Network for CT Metal Artifact
Reduction [62.691996239590125]
本稿では,金属人工物削減のための適応畳み込み辞書ネットワーク(ACDNet)を提案する。
我々のACDNetは、トレーニングデータを介して、アーティファクトフリーCT画像の事前を自動で学習し、入力されたCT画像ごとに表現カーネルを適応的に調整することができる。
本手法は,モデルに基づく手法の明確な解釈可能性を継承し,学習に基づく手法の強力な表現能力を維持する。
論文 参考訳(メタデータ) (2022-05-16T06:49:36Z) - Neural networks with linear threshold activations: structure and
algorithms [1.795561427808824]
クラス内で表現可能な関数を表現するのに、2つの隠れたレイヤが必要であることを示す。
また、クラス内の任意の関数を表すのに必要なニューラルネットワークのサイズについて、正確な境界を与える。
我々は,線形しきい値ネットワークと呼ばれるニューラルネットワークの新たなクラスを提案する。
論文 参考訳(メタデータ) (2021-11-15T22:33:52Z) - Network Adjustment: Channel Search Guided by FLOPs Utilization Ratio [101.84651388520584]
本稿では,ネットワークの精度をFLOPの関数として考慮した,ネットワーク調整という新しいフレームワークを提案する。
標準画像分類データセットと幅広いベースネットワークの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2020-04-06T15:51:00Z) - Dynamic Hierarchical Mimicking Towards Consistent Optimization
Objectives [73.15276998621582]
一般化能力を高めたCNN訓練を推進するための汎用的特徴学習機構を提案する。
DSNに部分的にインスパイアされた私たちは、ニューラルネットワークの中間層から微妙に設計されたサイドブランチをフォークしました。
カテゴリ認識タスクとインスタンス認識タスクの両方の実験により,提案手法の大幅な改善が示された。
論文 参考訳(メタデータ) (2020-03-24T09:56:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。