論文の概要: Phantom Embeddings: Using Embedding Space for Model Regularization in
Deep Neural Networks
- arxiv url: http://arxiv.org/abs/2304.07262v1
- Date: Fri, 14 Apr 2023 17:15:54 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-17 12:50:37.269794
- Title: Phantom Embeddings: Using Embedding Space for Model Regularization in
Deep Neural Networks
- Title(参考訳): Phantom Embeddings: ディープニューラルネットワークにおけるモデル正規化のための埋め込みスペースの利用
- Authors: Mofassir ul Islam Arif, Mohsan Jameel, Josif Grabocka, and Lars
Schmidt-Thieme
- Abstract要約: 機械学習モデルの強みは、データから複雑な関数近似を学ぶ能力に起因している。
複雑なモデルはトレーニングデータを記憶する傾向があり、結果としてテストデータの正規化性能が低下する。
情報豊富な潜伏埋め込みと高いクラス内相関を利用してモデルを正規化するための新しい手法を提案する。
- 参考スコア(独自算出の注目度): 12.293294756969477
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The strength of machine learning models stems from their ability to learn
complex function approximations from data; however, this strength also makes
training deep neural networks challenging. Notably, the complex models tend to
memorize the training data, which results in poor regularization performance on
test data. The regularization techniques such as L1, L2, dropout, etc. are
proposed to reduce the overfitting effect; however, they bring in additional
hyperparameters tuning complexity. These methods also fall short when the
inter-class similarity is high due to the underlying data distribution, leading
to a less accurate model. In this paper, we present a novel approach to
regularize the models by leveraging the information-rich latent embeddings and
their high intra-class correlation. We create phantom embeddings from a subset
of homogenous samples and use these phantom embeddings to decrease the
inter-class similarity of instances in their latent embedding space. The
resulting models generalize better as a combination of their embedding and
regularize them without requiring an expensive hyperparameter search. We
evaluate our method on two popular and challenging image classification
datasets (CIFAR and FashionMNIST) and show how our approach outperforms the
standard baselines while displaying better training behavior.
- Abstract(参考訳): 機械学習モデルの強みは、データから複雑な関数近似を学ぶ能力に起因している。
特に、複雑なモデルはトレーニングデータを記憶する傾向があり、テストデータに対する正規化性能が低下する。
L1,L2,Dropoutなどの正規化技術はオーバーフィッティング効果を低減するために提案されているが、これはさらに高パラメータチューニングの複雑さをもたらす。
これらの方法は、下位データ分布のためクラス間の類似度が高い場合にも不足し、精度の低いモデルとなる。
本稿では,情報豊富な潜在埋め込みと高いクラス内相関を利用してモデルを定式化する新しい手法を提案する。
我々は、同種標本のサブセットからファントム埋め込みを作成し、これらのファントム埋め込みを使用して、潜在埋め込み空間におけるインスタンスのクラス間類似性を減少させる。
結果として得られたモデルは、高価なハイパーパラメーターサーチを必要とせずに、埋め込みと正規化の組み合わせによってより良く一般化される。
提案手法は,人気のある2つの画像分類データセット(cifar と fashionmnist)上で評価し,トレーニング行動の改善とともに,標準ベースラインをいかに上回るかを示す。
関連論文リスト
- Adv-KD: Adversarial Knowledge Distillation for Faster Diffusion Sampling [2.91204440475204]
拡散確率モデル(DPM)は、深層生成モデルの強力なクラスとして登場した。
それらは、サンプル生成中にシーケンシャルなデノイングステップに依存している。
モデルアーキテクチャに直接位相を分解する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-05-31T08:19:44Z) - Diffusion-Model-Assisted Supervised Learning of Generative Models for
Density Estimation [10.793646707711442]
本稿では,密度推定のための生成モデルを訓練するためのフレームワークを提案する。
スコアベース拡散モデルを用いてラベル付きデータを生成する。
ラベル付きデータが生成されると、シンプルな完全に接続されたニューラルネットワークをトレーニングして、教師付き方法で生成モデルを学ぶことができます。
論文 参考訳(メタデータ) (2023-10-22T23:56:19Z) - Layer-wise Linear Mode Connectivity [52.6945036534469]
ニューラルネットワークパラメータの平均化は、2つの独立したモデルの知識の直感的な方法である。
フェデレートラーニングにおいて最も顕著に用いられている。
私たちは、単一グループやグループを平均化するモデルの性能を分析します。
論文 参考訳(メタデータ) (2023-07-13T09:39:10Z) - TWINS: A Fine-Tuning Framework for Improved Transferability of
Adversarial Robustness and Generalization [89.54947228958494]
本稿では,様々な分類タスクにおいて,逆向きに事前訓練されたモデルの微調整に焦点を当てる。
本稿では,TWINS(Two-WIng NormliSation)ファインチューニングフレームワークを提案する。
TWINSは、一般化とロバスト性の両方の観点から、幅広い画像分類データセットに有効であることが示されている。
論文 参考訳(メタデータ) (2023-03-20T14:12:55Z) - Feature Weaken: Vicinal Data Augmentation for Classification [1.7013938542585925]
モデルトレーニングと同一のコサイン類似性を持つビジナルデータ分布を構築するためにFeature Weakenを用いている。
この研究は、モデルの分類性能と一般化を改善するだけでなく、モデルの訓練を安定させ、モデルの収束を加速させる。
論文 参考訳(メタデータ) (2022-11-20T11:00:23Z) - Distributionally Robust Models with Parametric Likelihood Ratios [123.05074253513935]
3つの単純なアイデアにより、より広いパラメトリックな確率比のクラスを用いてDROでモデルを訓練することができる。
パラメトリック逆数を用いてトレーニングしたモデルは、他のDROアプローチと比較して、サブポピュレーションシフトに対して一貫して頑健であることがわかった。
論文 参考訳(メタデータ) (2022-04-13T12:43:12Z) - Dynamically-Scaled Deep Canonical Correlation Analysis [77.34726150561087]
カノニカル相関解析 (CCA) は, 2つのビューの特徴抽出手法である。
本稿では,入力依存の正準相関モデルをトレーニングするための新しい動的スケーリング手法を提案する。
論文 参考訳(メタデータ) (2022-03-23T12:52:49Z) - Investigating the Relationship Between Dropout Regularization and Model
Complexity in Neural Networks [0.0]
ドロップアウト規則化は、ディープラーニングモデルのばらつきを低減するのに役立つ。
2,000のニューラルネットワークをトレーニングすることにより,ドロップアウト率とモデル複雑性の関係について検討する。
各密層に隠されたユニットの数から、最適なドロップアウト率を予測するニューラルネットワークを構築します。
論文 参考訳(メタデータ) (2021-08-14T23:49:33Z) - Self-Damaging Contrastive Learning [92.34124578823977]
ラベルのないデータは一般に不均衡であり、長い尾の分布を示す。
本稿では,クラスを知らずに表現学習を自動的にバランスをとるための,自己学習コントラスト学習という原則的枠組みを提案する。
実験の結果,SDCLRは全体としての精度だけでなく,バランス性も著しく向上することがわかった。
論文 参考訳(メタデータ) (2021-06-06T00:04:49Z) - Convolutional Tensor-Train LSTM for Spatio-temporal Learning [116.24172387469994]
本稿では,ビデオシーケンスの長期相関を効率的に学習できる高次LSTMモデルを提案する。
これは、時間をかけて畳み込み特徴を組み合わせることによって予測を行う、新しいテンソルトレインモジュールによって達成される。
この結果は,幅広いアプリケーションやデータセットにおいて,最先端のパフォーマンス向上を実現している。
論文 参考訳(メタデータ) (2020-02-21T05:00:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。