論文の概要: FuCiTNet: Improving the generalization of deep learning networks by the
fusion of learned class-inherent transformations
- arxiv url: http://arxiv.org/abs/2005.08235v1
- Date: Sun, 17 May 2020 12:04:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-02 05:44:22.969345
- Title: FuCiTNet: Improving the generalization of deep learning networks by the
fusion of learned class-inherent transformations
- Title(参考訳): FuCiTNet:学習クラス継承変換の融合によるディープラーニングネットワークの一般化の改善
- Authors: Manuel Rey-Area, Emilio Guirado, Siham Tabik and Javier Ruiz-Hidalgo
- Abstract要約: 非常に小さなデータセットがDeep Neural Networks(DNN)のオーバーフィッティングを生成することは広く知られている。
この研究は、非常に小さなデータセット上でのDNNの一般化を改善するために、前述した手法と独立しているが相補的な新しいアプローチを示す。
- 参考スコア(独自算出の注目度): 1.8013893443965217
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: It is widely known that very small datasets produce overfitting in Deep
Neural Networks (DNNs), i.e., the network becomes highly biased to the data it
has been trained on. This issue is often alleviated using transfer learning,
regularization techniques and/or data augmentation. This work presents a new
approach, independent but complementary to the previous mentioned techniques,
for improving the generalization of DNNs on very small datasets in which the
involved classes share many visual features. The proposed methodology, called
FuCiTNet (Fusion Class inherent Transformations Network), inspired by GANs,
creates as many generators as classes in the problem. Each generator, $k$,
learns the transformations that bring the input image into the k-class domain.
We introduce a classification loss in the generators to drive the leaning of
specific k-class transformations. Our experiments demonstrate that the proposed
transformations improve the generalization of the classification model in three
diverse datasets.
- Abstract(参考訳): 非常に小さなデータセットがDeep Neural Networks(DNN)において過度に適合していること、すなわちネットワークがトレーニングされたデータに非常に偏っていることが広く知られている。
この問題はしばしば、転送学習、正規化技術、および/またはデータ拡張を使用して緩和される。
本研究は,多数の視覚的特徴を持つ非常に小さなデータセット上でのDNNの一般化を改善するために,従来の手法を補完する新たなアプローチを提案する。
提案手法はFuCiTNet (Fusion Class inherent Transformations Network) と呼ばれ、GANにインスパイアされ、問題のクラスとして多くのジェネレータを生成する。
各ジェネレータ($k$)は、入力イメージをkクラスドメインに持ち込む変換を学習する。
我々は、特定のkクラス変換の傾きを駆動するために、ジェネレータの分類損失を導入する。
提案手法は,3つの多様なデータセットにおける分類モデルの一般化を改善できることを実証する。
関連論文リスト
- Generalization emerges from local optimization in a self-organized learning network [0.0]
我々は,グローバルなエラー関数に頼ることなく,局所最適化ルールのみによって駆動される,教師付き学習ネットワーク構築のための新しいパラダイムを設計・分析する。
我々のネットワークは、ルックアップテーブルの形で、ノードに新しい知識を正確かつ瞬時に保存する。
本稿では,学習例数が十分に大きくなると,アルゴリズムによって生成されたネットワークが完全な一般化状態に体系的に到達する,分類タスクの多くの例を示す。
我々は状態変化のダイナミクスについて報告し、それが突然であり、従来の学習ネットワークですでに観察されている現象である1次相転移の特徴を持つことを示す。
論文 参考訳(メタデータ) (2024-10-03T15:32:08Z) - Do Deep Networks Transfer Invariances Across Classes? [123.84237389985236]
ニュアンス変換を学習するための生成的アプローチが、クラス間での不変性の伝達にどのように役立つかを示す。
この結果から,不均衡分布や細長い分布に対して分類器が不規則に一般化する理由が示唆された。
論文 参考訳(メタデータ) (2022-03-18T04:38:18Z) - Deep invariant networks with differentiable augmentation layers [87.22033101185201]
データ拡張ポリシーの学習方法は、保持データを必要とし、二段階最適化の問題に基づいている。
我々のアプローチは、現代の自動データ拡張技術よりも訓練が簡単で高速であることを示す。
論文 参考訳(メタデータ) (2022-02-04T14:12:31Z) - Feature transforms for image data augmentation [74.12025519234153]
画像分類において、多くの拡張アプローチは単純な画像操作アルゴリズムを利用する。
本研究では,14種類の拡張アプローチを組み合わせて生成した画像を追加することで,データレベルでのアンサンブルを構築する。
事前トレーニングされたResNet50ネットワークは、各拡張メソッドから派生した画像を含むトレーニングセットに基づいて微調整される。
論文 参考訳(メタデータ) (2022-01-24T14:12:29Z) - Revisiting Transformation Invariant Geometric Deep Learning: Are Initial
Representations All You Need? [80.86819657126041]
変換不変および距離保存初期表現は変換不変性を達成するのに十分であることを示す。
具体的には、多次元スケーリングを変更することで、変換不変かつ距離保存された初期点表現を実現する。
我々は、TinvNNが変換不変性を厳密に保証し、既存のニューラルネットワークと組み合わせられるほど汎用的で柔軟なことを証明した。
論文 参考訳(メタデータ) (2021-12-23T03:52:33Z) - Being Friends Instead of Adversaries: Deep Networks Learn from Data
Simplified by Other Networks [23.886422706697882]
フレンドリートレーニング(Friendly Training)は、自動的に推定される摂動を追加することで入力データを変更するものである。
本稿では,ニューラルネットワークの有効性に触発されて,このアイデアを再考し,拡張する。
本稿では,入力データの変更に責任を負う補助的な多層ネットワークを提案する。
論文 参考訳(メタデータ) (2021-12-18T16:59:35Z) - Context Decoupling Augmentation for Weakly Supervised Semantic
Segmentation [53.49821324597837]
微調整されたセマンティックセグメンテーションは、近年深く研究されている困難な問題です。
本稿では、オブジェクトが現れる固有のコンテキストを変更する Context Decoupling Augmentation (CDA) メソッドを紹介します。
提案手法の有効性を検証するため, PASCAL VOC 2012データセットにいくつかの代替ネットワークアーキテクチャを用いた広範な実験を行い, CDAが様々なWSSS手法を新たな最先端技術に拡張できることを実証した。
論文 参考訳(メタデータ) (2021-03-02T15:05:09Z) - More Is More -- Narrowing the Generalization Gap by Adding
Classification Heads [8.883733362171032]
我々は「TransNet」と呼ばれる入力変換に基づく既存のニューラルネットワークモデルのためのアーキテクチャ拡張を導入する。
私たちのモデルは、トレーニング時間のみに使用でき、予測のために刈り取られ、結果としてベースモデルと同等のアーキテクチャになります。
論文 参考訳(メタデータ) (2021-02-09T16:30:33Z) - Collaborative Method for Incremental Learning on Classification and
Generation [32.07222897378187]
本稿では,ニューラルネットワークを用いたインクリメンタルなクラス学習のための新しいアルゴリズム,Incrmental Class Learning with Attribute Sharing (ICLAS)を導入する。
そのコンポーネントの1つであるincGANは、トレーニングデータよりも多彩な画像を生成することができる。
データ不足の困難な環境下で、ICLASは段階的に分類と生成ネットワークを訓練する。
論文 参考訳(メタデータ) (2020-10-29T06:34:53Z) - Category-Learning with Context-Augmented Autoencoder [63.05016513788047]
実世界のデータの解釈可能な非冗長表現を見つけることは、機械学習の鍵となる問題の一つである。
本稿では,オートエンコーダのトレーニングにデータ拡張を利用する新しい手法を提案する。
このような方法で変分オートエンコーダを訓練し、補助ネットワークによって変換結果を予測できるようにする。
論文 参考訳(メタデータ) (2020-10-10T14:04:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。