論文の概要: Regularization Through Simultaneous Learning: A Case Study on Plant
Classification
- arxiv url: http://arxiv.org/abs/2305.13447v4
- Date: Tue, 20 Jun 2023 16:18:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-22 02:03:00.633209
- Title: Regularization Through Simultaneous Learning: A Case Study on Plant
Classification
- Title(参考訳): 同時学習による正規化:植物分類の事例研究
- Authors: Pedro Henrique Nascimento Castro, Gabriel C\'assia Fortuna, Rafael
Alves Bonfim de Queiroz, Gladston Juliano Prates Moreira and Eduardo Jos\'e
da Silva Luz
- Abstract要約: 本稿では,トランスファーラーニングとマルチタスクラーニングの原則に基づく正規化アプローチである同時学習を紹介する。
我々は、ターゲットデータセットであるUFOP-HVDの補助データセットを活用し、カスタマイズされた損失関数でガイドされた同時分類を容易にする。
興味深いことに,本手法は正規化のないモデルよりも優れた性能を示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In response to the prevalent challenge of overfitting in deep neural
networks, this paper introduces Simultaneous Learning, a regularization
approach drawing on principles of Transfer Learning and Multi-task Learning. We
leverage auxiliary datasets with the target dataset, the UFOP-HVD, to
facilitate simultaneous classification guided by a customized loss function
featuring an inter-group penalty. This experimental configuration allows for a
detailed examination of model performance across similar (PlantNet) and
dissimilar (ImageNet) domains, thereby enriching the generalizability of
Convolutional Neural Network models. Remarkably, our approach demonstrates
superior performance over models without regularization and those applying
dropout regularization exclusively, enhancing accuracy by 5 to 22 percentage
points. Moreover, when combined with dropout, the proposed approach improves
generalization, securing state-of-the-art results for the UFOP-HVD challenge.
The method also showcases efficiency with significantly smaller sample sizes,
suggesting its broad applicability across a spectrum of related tasks. In
addition, an interpretability approach is deployed to evaluate feature quality
by analyzing class feature correlations within the network's convolutional
layers. The findings of this study provide deeper insights into the efficacy of
Simultaneous Learning, particularly concerning its interaction with the
auxiliary and target datasets.
- Abstract(参考訳): 本稿では,ディープニューラルネットワークにおけるオーバーフィッティングの課題に対して,トランスファー学習とマルチタスク学習の原則に基づいた正規化アプローチである同時学習を提案する。
対象データセットであるufop-hvdを用いた補助データセットを活用して,グループ間ペナルティを特徴とするカスタマイズされた損失関数による同時分類を容易にする。
この実験構成により、類似(PlantNet)および異種(ImageNet)ドメインにわたるモデル性能の詳細な検証が可能となり、畳み込みニューラルネットワークモデルの一般化可能性を高めることができる。
また,本手法は,正則化を伴わないモデルや,ドロップアウト正則化のみを適用したモデルよりも優れた性能を示し,精度を5~22ポイント向上させる。
さらに、ドロップアウトと組み合わせることで一般化が改善され、ufop-hvdチャレンジの最先端結果が確保される。
この方法は、サンプルサイズがかなり小さい効率も示しており、関連するタスクのスペクトルにまたがる幅広い適用性が示唆されている。
さらに、ネットワークの畳み込み層内のクラス特徴相関を分析することにより、特徴品質を評価するための解釈可能性アプローチが展開される。
本研究は, 同時学習の有効性, 特に補助的・目的的データセットとの相互作用について, より深い知見を提供する。
関連論文リスト
- Towards Robust Out-of-Distribution Generalization: Data Augmentation and Neural Architecture Search Approaches [4.577842191730992]
我々は、ディープラーニングのための堅牢なOoD一般化への道を探る。
まず,認識に必須でない特徴間の素早い相関を解消するための,新しい効果的なアプローチを提案する。
次に,OoDシナリオにおけるニューラルアーキテクチャ探索の強化問題について検討する。
論文 参考訳(メタデータ) (2024-10-25T20:50:32Z) - Contrastive-Adversarial and Diffusion: Exploring pre-training and fine-tuning strategies for sulcal identification [3.0398616939692777]
対人学習、コントラスト学習、拡散認知学習、通常の再構成学習といった技術が標準となっている。
この研究は、ニューラルネットワークの学習プロセスを強化するために、事前学習技術と微調整戦略の利点を解明することを目的としている。
論文 参考訳(メタデータ) (2024-05-29T15:44:51Z) - Implicit Counterfactual Data Augmentation for Robust Learning [24.795542869249154]
本研究では, 突発的相関を除去し, 安定した予測を行うために, インプリシト・カウンセショナル・データ拡張法を提案する。
画像とテキストのデータセットをカバーする様々なバイアス付き学習シナリオで実験が行われてきた。
論文 参考訳(メタデータ) (2023-04-26T10:36:40Z) - Interpolation-based Correlation Reduction Network for Semi-Supervised
Graph Learning [49.94816548023729]
補間型相関低減ネットワーク(ICRN)と呼ばれる新しいグラフコントラスト学習手法を提案する。
提案手法では,決定境界のマージンを大きくすることで,潜在特徴の識別能力を向上させる。
この2つの設定を組み合わせることで、豊富なラベル付きノードと稀に価値あるラベル付きノードから豊富な監視情報を抽出し、離散表現学習を行う。
論文 参考訳(メタデータ) (2022-06-06T14:26:34Z) - Learning Neural Causal Models with Active Interventions [83.44636110899742]
本稿では,データ生成プロセスの根底にある因果構造を素早く識別する能動的介入ターゲット機構を提案する。
本手法は,ランダムな介入ターゲティングと比較して,要求される対話回数を大幅に削減する。
シミュレーションデータから実世界のデータまで,複数のベンチマークにおいて優れた性能を示す。
論文 参考訳(メタデータ) (2021-09-06T13:10:37Z) - Boosting the Generalization Capability in Cross-Domain Few-shot Learning
via Noise-enhanced Supervised Autoencoder [23.860842627883187]
我々は、新しいノイズ強調型教師付きオートエンコーダ(NSAE)を用いて、特徴分布のより広範なバリエーションを捉えるようモデルに教える。
NSAEは入力を共同で再構築し、入力のラベルと再構成されたペアを予測することによってモデルを訓練する。
また、NSAE構造を利用して、より適応性を高め、対象領域の分類性能を向上させる2段階の微調整手順を提案する。
論文 参考訳(メタデータ) (2021-08-11T04:45:56Z) - Adversarial Feature Augmentation and Normalization for Visual
Recognition [109.6834687220478]
最近のコンピュータビジョンの進歩は、分類モデルの一般化能力を改善するために、逆データ拡張を利用する。
本稿では,中間的特徴埋め込みにおける敵対的拡張を提唱する効率的かつ効率的な代替手法を提案する。
代表的なバックボーンネットワークを用いて,多様な視覚認識タスクにまたがる提案手法を検証する。
論文 参考訳(メタデータ) (2021-03-22T20:36:34Z) - Anomaly Detection on Attributed Networks via Contrastive Self-Supervised
Learning [50.24174211654775]
本論文では,アトリビュートネットワーク上の異常検出のためのコントラスト型自己監視学習フレームワークを提案する。
このフレームワークは、新しいタイプのコントラストインスタンスペアをサンプリングすることで、ネットワークデータからのローカル情報を完全に活用します。
高次元特性と局所構造から情報埋め込みを学習するグラフニューラルネットワークに基づくコントラスト学習モデルを提案する。
論文 参考訳(メタデータ) (2021-02-27T03:17:20Z) - Task-Feature Collaborative Learning with Application to Personalized
Attribute Prediction [166.87111665908333]
本稿では,TFCL(Task-Feature Collaborative Learning)と呼ばれる新しいマルチタスク学習手法を提案する。
具体的には、まず、特徴とタスクの協調的なグループ化を活用するために、不均一なブロック対角構造正規化器を用いたベースモデルを提案する。
実際の拡張として,重なり合う機能と難易度を区別することで,基本モデルを拡張します。
論文 参考訳(メタデータ) (2020-04-29T02:32:04Z) - Learning What Makes a Difference from Counterfactual Examples and
Gradient Supervision [57.14468881854616]
ニューラルネットワークの一般化能力を改善するための補助的学習目標を提案する。
我々は、異なるラベルを持つ最小差の例のペア、すなわち反ファクトまたはコントラストの例を使用し、タスクの根底にある因果構造を示す信号を与える。
このテクニックで訓練されたモデルは、配布外テストセットのパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2020-04-20T02:47:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。