論文の概要: R-Block: Regularized Block of Dropout for convolutional networks
- arxiv url: http://arxiv.org/abs/2307.15150v1
- Date: Thu, 27 Jul 2023 18:53:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-31 14:30:27.134986
- Title: R-Block: Regularized Block of Dropout for convolutional networks
- Title(参考訳): R-Block: 畳み込みネットワークにおけるドロップアウトの正規化ブロック
- Authors: Liqi Wang, Qiya Hu
- Abstract要約: 正規化手法としてのドロップアウトは、完全に接続された層で広く使われているが、畳み込み層では効果が低い。
本稿では,畳み込み層正規化のための相互学習学習戦略,すなわちR-Blockを適用した。
R-Blockは他の構造化されたドロップアウトモデルよりも優れた性能を示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Dropout as a regularization technique is widely used in fully connected
layers while is less effective in convolutional layers. Therefore more
structured forms of dropout have been proposed to regularize convolutional
networks. The disadvantage of these methods is that the randomness introduced
causes inconsistency between training and inference. In this paper, we apply a
mutual learning training strategy for convolutional layer regularization,
namely R-Block, which forces two outputs of the generated difference maximizing
sub models to be consistent with each other. Concretely, R-Block minimizes the
losses between the output distributions of two sub models with different drop
regions for each sample in the training dataset. We design two approaches to
construct such sub models. Our experiments demonstrate that R-Block achieves
better performance than other existing structured dropout variants. We also
demonstrate that our approaches to construct sub models outperforms others.
- Abstract(参考訳): 正規化技法としてのドロップアウトは完全連結層で広く使われているが、畳み込み層では効果が低い。
したがって、畳み込みネットワークを規則化するより構造化された形式のドロップアウトが提案されている。
これらの方法の欠点は、ランダム性がトレーニングと推論の矛盾を引き起こすことである。
本稿では,畳み込み層正規化のための相互学習訓練戦略,すなわち,生成した差分最大化部分モデルの2つの出力を互いに一貫性を持たせるrブロックを適用する。
具体的には、R-Blockはトレーニングデータセットの各サンプルに対して異なるドロップ領域を持つ2つのサブモデルの出力分布間の損失を最小化する。
このようなサブモデルを構築するための2つのアプローチを設計する。
我々の実験では、R-Blockは他の構造化されたドロップアウトモデルよりも優れた性能を示す。
また、サブモデルを構築するアプローチは他のモデルよりも優れていることを示す。
関連論文リスト
- Training Implicit Generative Models via an Invariant Statistical Loss [3.139474253994318]
暗黙的な生成モデルは任意の複雑なデータ分布を学習する能力を持つ。
マイナス面として、トレーニングでは、敵対的判別器を使用して人工的に生成されたデータと実際のデータを区別する必要がある。
本研究では,1次元(1次元)生成暗黙的モデルを学習するための判別器フリーな手法を開発した。
論文 参考訳(メタデータ) (2024-02-26T09:32:28Z) - Layer-wise Regularized Dropout for Neural Language Models [57.422407462430186]
レイヤワイド正規化ドロップアウト(LR-Drop)は、トランスフォーマーベースの言語モデルのために特別に設計されている。
LR-Dropは、最先端の結果を含む優れた性能を発揮することを示す。
論文 参考訳(メタデータ) (2024-02-26T07:31:35Z) - Lightweight Diffusion Models with Distillation-Based Block Neural
Architecture Search [55.41583104734349]
拡散蒸留に基づくブロックワイドニューラルネットワークサーチ(NAS)により拡散モデルの構造的冗長性を自動的に除去することを提案する。
事前訓練を受けた教師がより多い場合、DiffNASを利用して、教師よりもパフォーマンスが良い最小限のアーキテクチャを探索する。
従来のブロックワイズNAS法とは異なり、DiffNASはブロックワイズ局所探索戦略と、関節ダイナミックロスを伴う再訓練戦略を含んでいる。
論文 参考訳(メタデータ) (2023-11-08T12:56:59Z) - Phantom Embeddings: Using Embedding Space for Model Regularization in
Deep Neural Networks [12.293294756969477]
機械学習モデルの強みは、データから複雑な関数近似を学ぶ能力に起因している。
複雑なモデルはトレーニングデータを記憶する傾向があり、結果としてテストデータの正規化性能が低下する。
情報豊富な潜伏埋め込みと高いクラス内相関を利用してモデルを正規化するための新しい手法を提案する。
論文 参考訳(メタデータ) (2023-04-14T17:15:54Z) - Reflected Diffusion Models [93.26107023470979]
本稿では,データのサポートに基づいて進化する反射微分方程式を逆転する反射拡散モデルを提案する。
提案手法は,一般化されたスコアマッチング損失を用いてスコア関数を学習し,標準拡散モデルの主要成分を拡張する。
論文 参考訳(メタデータ) (2023-04-10T17:54:38Z) - Distributionally Robust Models with Parametric Likelihood Ratios [123.05074253513935]
3つの単純なアイデアにより、より広いパラメトリックな確率比のクラスを用いてDROでモデルを訓練することができる。
パラメトリック逆数を用いてトレーニングしたモデルは、他のDROアプローチと比較して、サブポピュレーションシフトに対して一貫して頑健であることがわかった。
論文 参考訳(メタデータ) (2022-04-13T12:43:12Z) - Learning to Solve Routing Problems via Distributionally Robust
Optimization [14.506553345693536]
ルーティング問題を解決するための最近のディープモデルでは、トレーニング用のノードの単一分布が想定されており、分散一般化能力を著しく損なう。
この問題に対処するために、群分布的ロバストな最適化(グループDRO)を活用し、異なる分布群に対する重み付けと深層モデルのパラメータを、トレーニング中にインターリーブされた方法で共同で最適化する。
また、畳み込みニューラルネットワークに基づくモジュールを設計し、ディープモデルがノード間のより情報に富んだ潜在パターンを学習できるようにする。
論文 参考訳(メタデータ) (2022-02-15T08:06:44Z) - Scaling Structured Inference with Randomization [64.18063627155128]
本稿では、構造化されたモデルを数万の潜在状態に拡張するためにランダム化された動的プログラミング(RDP)のファミリを提案する。
我々の手法は古典的DPベースの推論に広く適用できる。
また、自動微分とも互換性があり、ニューラルネットワークとシームレスに統合できる。
論文 参考訳(メタデータ) (2021-12-07T11:26:41Z) - Adversarial Distributional Training for Robust Deep Learning [53.300984501078126]
逆行訓練(AT)は、逆行例によるトレーニングデータを増やすことにより、モデルロバスト性を改善する最も効果的な手法の一つである。
既存のAT手法の多くは、敵の例を作らせるために特定の攻撃を採用しており、他の目に見えない攻撃に対する信頼性の低い堅牢性につながっている。
本稿では,ロバストモデル学習のための新しいフレームワークであるADTを紹介する。
論文 参考訳(メタデータ) (2020-02-14T12:36:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。