論文の概要: Semantically Proportional Patchmix for Few-Shot Learning
- arxiv url: http://arxiv.org/abs/2202.08647v1
- Date: Thu, 17 Feb 2022 13:24:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-18 15:16:10.191730
- Title: Semantically Proportional Patchmix for Few-Shot Learning
- Title(参考訳): 少数ショット学習のための意味的比例パッチミックス
- Authors: Jingquan Wang, Jing Xu, Yu Pan, Zenglin Xu
- Abstract要約: 少ないショットラーニングは、限られたラベル付きデータでしか見えないクラスを分類することを目的としている。
近年の研究では、単純な転写学習戦略によるトレーニングモデルが、数ショットの分類において競合的な結果が得られることが示されている。
トレーニング画像間でパッチをカット・ペーストするSePPMixを提案する。
- 参考スコア(独自算出の注目度): 16.24173112047382
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Few-shot learning aims to classify unseen classes with only a limited number
of labeled data. Recent works have demonstrated that training models with a
simple transfer learning strategy can achieve competitive results in few-shot
classification. Although excelling at distinguishing training data, these
models are not well generalized to unseen data, probably due to insufficient
feature representations on evaluation. To tackle this issue, we propose
Semantically Proportional Patchmix (SePPMix), in which patches are cut and
pasted among training images and the ground truth labels are mixed
proportionally to the semantic information of the patches. In this way, we can
improve the generalization ability of the model by regional dropout effect
without introducing severe label noise. To learn more robust representations of
data, we further take rotate transformation on the mixed images and predict
rotations as a rule-based regularizer. Extensive experiments on prevalent
few-shot benchmarks have shown the effectiveness of our proposed method.
- Abstract(参考訳): 少数ショット学習は、限られた数のラベル付きデータで未発見のクラスを分類することを目的としている。
近年の研究では、単純な転写学習戦略によるトレーニングモデルが、数ショットの分類において競合的な結果が得られることが示されている。
トレーニングデータの識別には優れていますが、これらのモデルは、おそらく評価上の特徴表現が不十分なため、見当たらないデータに対してうまく一般化していません。
そこで本研究では,訓練画像間でパッチをカット・ペーストし,パッチの意味情報に接する基底真理ラベルを混合する,意味的に比例するパッチミックス(seppmix)を提案する。
このように,重度のラベルノイズを発生させることなく,局所的ドロップアウト効果によりモデルの一般化能力を向上させることができる。
データのより堅牢な表現を学習するために、混合画像上で回転変換を行い、規則ベースの正規化器として回転を予測する。
提案手法の有効性を実証し,提案手法の有効性を検証した。
関連論文リスト
- Rethinking Classifier Re-Training in Long-Tailed Recognition: A Simple
Logits Retargeting Approach [102.0769560460338]
我々は,クラスごとのサンプル数に関する事前知識を必要とせず,シンプルなロジットアプローチ(LORT)を開発した。
提案手法は,CIFAR100-LT, ImageNet-LT, iNaturalist 2018など,様々な不均衡データセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2024-03-01T03:27:08Z) - Exploring Data Augmentations on Self-/Semi-/Fully- Supervised
Pre-trained Models [24.376036129920948]
本研究では,データ拡張が視力事前訓練モデルの性能に与える影響について検討する。
ランダム消去(Random Erasing)、CutOut(CutOut)、CutMix(CutMix)、MixUp(MixUp)という4種類のデータ拡張を適用します。
画像分類,オブジェクト検出,インスタンスセグメンテーション,セマンティックセグメンテーションなどの視覚タスクにおける性能について報告する。
論文 参考訳(メタデータ) (2023-10-28T23:46:31Z) - SoftMatch: Addressing the Quantity-Quality Trade-off in Semi-supervised
Learning [101.86916775218403]
本稿では, サンプル重み付けを統一した定式化により, 一般的な擬似ラベル法を再検討する。
トレーニング中の擬似ラベルの量と質を両立させることでトレードオフを克服するSoftMatchを提案する。
実験では、画像、テキスト、不均衡な分類など、さまざまなベンチマークで大幅に改善されている。
論文 参考訳(メタデータ) (2023-01-26T03:53:25Z) - Supervised Contrastive Learning on Blended Images for Long-tailed
Recognition [32.876647081080655]
実世界のデータは長い尾の分布を持ち、クラス毎のサンプル数はトレーニングクラスで等しくありません。
本稿では,潜在特徴空間のバランスをとるために,新しい長尾認識手法を提案する。
論文 参考訳(メタデータ) (2022-11-22T01:19:00Z) - Agree to Disagree: Diversity through Disagreement for Better
Transferability [54.308327969778155]
本稿では,D-BAT(Diversity-By-dis-Agreement Training)を提案する。
我々は、D-BATが一般化された相違の概念から自然に現れることを示す。
論文 参考訳(メタデータ) (2022-02-09T12:03:02Z) - FairIF: Boosting Fairness in Deep Learning via Influence Functions with
Validation Set Sensitive Attributes [51.02407217197623]
本稿では,FAIRIFという2段階の学習アルゴリズムを提案する。
サンプル重みが計算される再重み付きデータセットの損失を最小限に抑える。
FAIRIFは、様々な種類のバイアスに対して、フェアネスとユーティリティのトレードオフを良くしたモデルが得られることを示す。
論文 参考訳(メタデータ) (2022-01-15T05:14:48Z) - Learning from Noisy Labels for Entity-Centric Information Extraction [17.50856935207308]
エンティティ中心の情報抽出のための単純な共正規化フレームワークを提案する。
これらのモデルはタスク固有の損失と共同最適化され、同様の予測を生成するために正規化される。
結局のところ、トレーニングされたモデルのいずれかを推論に利用できます。
論文 参考訳(メタデータ) (2021-04-17T22:49:12Z) - ReMix: Towards Image-to-Image Translation with Limited Data [154.71724970593036]
本稿では,この問題に対処するためのデータ拡張手法(ReMix)を提案する。
特徴レベルでのトレーニングサンプルを補間し、サンプル間の知覚的関係に基づく新しいコンテンツ損失を提案します。
提案手法は, 生成のあいまいさを効果的に低減し, コンテンツ保存結果を生成する。
論文 参考訳(メタデータ) (2021-03-31T06:24:10Z) - SaliencyMix: A Saliency Guided Data Augmentation Strategy for Better
Regularization [9.126576583256506]
本研究では,ディープラーニングモデルの一般化能力を向上させるために,SaliencyMixを提案する。
SaliencyMixは、サリエンシマップの助けを借りて代表画像パッチを慎重に選択し、この表示パッチと対象画像とを混合する。
SaliencyMixは、ImageNet分類上のResNet-50およびResNet-101アーキテクチャにおいて、21.26%と20.09%の21.26%の既知のトップ1エラーを達成している。
論文 参考訳(メタデータ) (2020-06-02T17:18:34Z) - Un-Mix: Rethinking Image Mixtures for Unsupervised Visual Representation
Learning [108.999497144296]
近年の先進的な教師なし学習手法では,同じ画像から2つの「ビュー」を学習表現として比較するために,サイムズ様の枠組みを用いている。
この研究は、教師なし学習においてラベル空間上の距離の概念を巻き込み、正対と負対のソフトな類似度をモデルに認識させることを目的としている。
その概念的単純さにもかかわらず、この解 -- 教師なし画像混合(Un-Mix)により、変換された入力と対応する新しいラベル空間からより微妙でより堅牢で一般化された表現を学習できることを実証的に示す。
論文 参考訳(メタデータ) (2020-03-11T17:59:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。