論文の概要: Deep one-gate per layer networks with skip connections are universal classifiers
- arxiv url: http://arxiv.org/abs/2511.05552v1
- Date: Sun, 02 Nov 2025 21:12:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-11 21:18:44.429636
- Title: Deep one-gate per layer networks with skip connections are universal classifiers
- Title(参考訳): スキップ接続を持つ層ごとのディープワンゲートはユニバーサル分類器である
- Authors: Raul Rojas,
- Abstract要約: 本稿では,2層を隠蔽した多層パーセプトロンを1ゲート層を有するディープニューラルネットワークに容易に変換し,接続をスキップする方法について述べる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper shows how a multilayer perceptron with two hidden layers, which has been designed to classify two classes of data points, can easily be transformed into a deep neural network with one-gate layers and skip connections.
- Abstract(参考訳): 本稿では,2種類のデータポイントを分類するために設計された2層の層を持つ多層パーセプトロンを,ワンゲート層を有するディープニューラルネットワークに容易に変換し,接続をスキップする方法について述べる。
関連論文リスト
- Perfect Clustering in Very Sparse Diverse Multiplex Networks [4.070200285321219]
逆多重多重符号一般化ランダムドット製品グラフ(DIMPLE-SGRDPG)ネットワークモデル(Pensky (2024))について検討する。
すべての層は、同じグループの層が同じ周囲部分空間に埋め込まれるようにグループに分割することができる。
このモデルの主要なタスクは、ユニークな部分空間構造を持つレイヤのグループを復元することである。
論文 参考訳(メタデータ) (2025-07-25T16:43:42Z) - Neural Collapse in the Intermediate Hidden Layers of Classification
Neural Networks [0.0]
(NC)は、分類ニューラルネットワークの最終的な隠蔽層におけるクラスの表現を正確に記述する。
本稿では,中間層におけるNCの出現を包括的に解析する。
論文 参考訳(メタデータ) (2023-08-05T01:19:38Z) - Towards Diverse Binary Segmentation via A Simple yet General Gated Network [71.19503376629083]
本稿では,バイナリセグメンテーションタスクに対処するシンプルな汎用ネットワーク(GateNet)を提案する。
多段ゲートユニットの助けを借りて、エンコーダからの貴重なコンテキスト情報をデコーダに選択的に送信することができる。
我々は,アトーラスの畳み込みを改善し,新規な折り畳み畳み畳み畳み畳み込みを形成する「Fold」操作を導入した。
論文 参考訳(メタデータ) (2023-03-18T11:26:36Z) - WLD-Reg: A Data-dependent Within-layer Diversity Regularizer [98.78384185493624]
ニューラルネットワークは、勾配に基づく最適化と共同で訓練された階層構造に配置された複数の層で構成されている。
我々は、この従来の「中間層」フィードバックを補うために、同じ層内での活性化の多様性を促進するために、追加の「中間層」フィードバックを補うことを提案する。
本稿では,提案手法が複数のタスクにおける最先端ニューラルネットワークモデルの性能を向上させることを実証した広範な実証研究を提案する。
論文 参考訳(メタデータ) (2023-01-03T20:57:22Z) - PathFinder: Discovering Decision Pathways in Deep Neural Networks [10.914300987810126]
同じクラスのインスタンスが、レイヤ上の少数のクラスタシーケンスに従っていることに気付き、決定パスを名付けています。
このようなパスは、分類決定が通常どのように行われるかを説明し、また、異常なパスに従う外れ値を決定するのにも役立ちます。
我々は、MNISTとCELEBで訓練された2つのフィードフォワードネットワークと、PenDigitsで訓練された1つの繰り返しネットワークを用いて、本手法の有効性を検証する。
論文 参考訳(メタデータ) (2022-10-01T16:49:55Z) - DeepCluE: Enhanced Image Clustering via Multi-layer Ensembles in Deep
Neural Networks [53.88811980967342]
本稿では,Ensembles (DeepCluE) を用いたDeep Clusteringを提案する。
ディープニューラルネットワークにおける複数のレイヤのパワーを活用することで、ディープクラスタリングとアンサンブルクラスタリングのギャップを埋める。
6つの画像データセットの実験結果から、最先端のディープクラスタリングアプローチに対するDeepCluEの利点が確認されている。
論文 参考訳(メタデータ) (2022-06-01T09:51:38Z) - Connecting Sphere Manifolds Hierarchically for Regularization [16.082095595061617]
階層的なクラスによる分類問題を考察する。
我々の手法は、球面完全連結層と階層層を組み合わせることによって、ニューラルネットワークの最後の層を置き換える。
この正規化は、広く使われているディープニューラルネットワークアーキテクチャのパフォーマンスを向上させることが示されている。
論文 参考訳(メタデータ) (2021-06-25T10:51:36Z) - Dual-constrained Deep Semi-Supervised Coupled Factorization Network with
Enriched Prior [80.5637175255349]
本稿では、DS2CF-Netと呼ばれる、拡張された事前制約付きDual-Constrained Deep Semi-Supervised Coupled Factorization Networkを提案する。
隠れた深い特徴を抽出するために、DS2CF-Netは、深い構造と幾何学的な構造に制約のあるニューラルネットワークとしてモデル化される。
我々のネットワークは、表現学習とクラスタリングのための最先端の性能を得ることができる。
論文 参考訳(メタデータ) (2020-09-08T13:10:21Z) - Cross-layer Feature Pyramid Network for Salient Object Detection [102.20031050972429]
本稿では,有能な物体検出における進行的融合を改善するために,新しいクロス層特徴ピラミッドネットワークを提案する。
レイヤごとの分散機能は、他のすべてのレイヤからセマンティクスと健全な詳細の両方を同時に所有し、重要な情報の損失を減らします。
論文 参考訳(メタデータ) (2020-02-25T14:06:27Z) - Convolutional Networks with Dense Connectivity [59.30634544498946]
Dense Convolutional Network (DenseNet)を導入し、フィードフォワード方式で各レイヤを他のすべてのレイヤに接続する。
各レイヤについて、先行するすべてのレイヤのフィーチャーマップをインプットとして使用し、それ自身のフィーチャーマップをその後のすべてのレイヤへのインプットとして使用します。
提案したアーキテクチャを、4つの高度に競争力のあるオブジェクト認識ベンチマークタスクで評価する。
論文 参考訳(メタデータ) (2020-01-08T06:54:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。