論文の概要: Meta Style Adversarial Training for Cross-Domain Few-Shot Learning
- arxiv url: http://arxiv.org/abs/2302.09309v1
- Date: Sat, 18 Feb 2023 11:54:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-21 19:23:36.500247
- Title: Meta Style Adversarial Training for Cross-Domain Few-Shot Learning
- Title(参考訳): クロスドメインFew-Shot学習のためのメタスタイル逆学習
- Authors: Yuqian Fu, Yu Xie, Yanwei Fu, Yu-Gang Jiang
- Abstract要約: Cross-Domain Few-Shot Learning (CD-FSL)は、最近登場したタスクで、異なるドメインにわたる数ショットの学習に対処している。
本稿では,新しいモデルに依存しないメタスタイル逆アタック(StyleAdv)手法と,新しいスタイル逆アタック手法を提案する。
スタイルを継続的に攻撃し、これらの難易度の高いスタイルをモデルに認識させることで、我々のモデルは徐々に視覚的スタイルに頑健になり、新しいターゲットデータセットの一般化能力を高める。
- 参考スコア(独自算出の注目度): 89.86971464234533
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Cross-Domain Few-Shot Learning (CD-FSL) is a recently emerging task that
tackles few-shot learning across different domains. It aims at transferring
prior knowledge learned on the source dataset to novel target datasets. The
CD-FSL task is especially challenged by the huge domain gap between different
datasets. Critically, such a domain gap actually comes from the changes of
visual styles, and wave-SAN empirically shows that spanning the style
distribution of the source data helps alleviate this issue. However, wave-SAN
simply swaps styles of two images. Such a vanilla operation makes the generated
styles ``real'' and ``easy'', which still fall into the original set of the
source styles. Thus, inspired by vanilla adversarial learning, a novel
model-agnostic meta Style Adversarial training (StyleAdv) method together with
a novel style adversarial attack method is proposed for CD-FSL. Particularly,
our style attack method synthesizes both ``virtual'' and ``hard'' adversarial
styles for model training. This is achieved by perturbing the original style
with the signed style gradients. By continually attacking styles and forcing
the model to recognize these challenging adversarial styles, our model is
gradually robust to the visual styles, thus boosting the generalization ability
for novel target datasets. Besides the typical CNN-based backbone, we also
employ our StyleAdv method on large-scale pretrained vision transformer.
Extensive experiments conducted on eight various target datasets show the
effectiveness of our method. Whether built upon ResNet or ViT, we achieve the
new state of the art for CD-FSL. Codes and models will be released.
- Abstract(参考訳): Cross-Domain Few-Shot Learning (CD-FSL)は、最近登場したタスクであり、異なるドメインにわたる数ショットの学習に取り組む。
ソースデータセットで学んだ事前知識を新しいターゲットデータセットに転送することを目的としている。
CD-FSLタスクは、異なるデータセット間の大きなドメインギャップによって特に困難である。
批判的に言えば、このようなドメインギャップは実際には視覚的なスタイルの変化によるもので、Wave-SANは、ソースデータのスタイル分布を分散させることによってこの問題を軽減することを実証的に示します。
しかし、Wave-SANは単純に2つの画像のスタイルを交換する。
このようなバニラ操作により、生成されたスタイル ``real'' と ``easy'' は、まだソーススタイルの最初のセットに収まる。
そこで,CD-FSLでは,新しいモデルに依存しないメタスタイル逆行訓練(StyleAdv)法と,新しいスタイル逆行攻撃法が提案されている。
特に,本手法は,モデル学習のための「仮想」と「ハード」の両逆スタイルを合成する。
これは、署名されたスタイル勾配でオリジナルのスタイルを乱すことによって達成される。
継続的にスタイルを攻撃し、これらの困難な敵対的スタイルを認識することによって、我々のモデルは徐々にビジュアルスタイルに強固になり、新しいターゲットデータセットの一般化能力を高めます。
典型的なCNNベースのバックボーンの他に、大規模な事前学習型視覚変換器にもStyleAdv法を用いた。
8種類のターゲットデータセットを対象とした広範囲な実験を行い,本手法の有効性を示した。
ResNetでもViTでも、CD-FSLの新たな最先端を実現する。
コードとモデルがリリースされます。
関連論文リスト
- FISTNet: FusIon of STyle-path generative Networks for Facial Style Transfer [15.308837341075135]
StyleGAN法は、顔画像にアーティファクトが導入された結果、過度に適合する傾向にある。
本稿では,事前学習したマルチパス方式の転送ネットワークを利用する顔画像のためのFusIon of STyles(FIST)ネットワークを提案する。
論文 参考訳(メタデータ) (2023-07-18T07:20:31Z) - A Unified Arbitrary Style Transfer Framework via Adaptive Contrastive
Learning [84.8813842101747]
Unified Contrastive Arbitrary Style Transfer (UCAST)は、新しいスタイルの学習・伝達フレームワークである。
入力依存温度を導入することで,スタイル伝達のための適応型コントラスト学習方式を提案する。
本フレームワークは,スタイル表現とスタイル伝達のための並列コントラスト学習方式,スタイル分布を効果的に学習するためのドメイン拡張モジュール,スタイル伝達のための生成ネットワークという,3つの重要なコンポーネントから構成される。
論文 参考訳(メタデータ) (2023-03-09T04:35:00Z) - Style-Agnostic Reinforcement Learning [9.338454092492901]
本稿では,スタイル伝達と逆学習の両方を用いて,スタイル非依存表現を学習する新しい手法を提案する。
本手法は,固有対向型生成器から生成される多様な画像スタイルでアクターを訓練する。
提案手法は,Procgen and Distracting Control Suiteベンチマークにおける最先端の手法よりも,競争力や性能の向上が期待できる。
論文 参考訳(メタデータ) (2022-08-31T13:45:00Z) - Adversarial Style Augmentation for Domain Generalized Urban-Scene
Segmentation [120.96012935286913]
そこで本研究では,学習中にハードなスタイリング画像を生成可能な,新たな対向型拡張手法を提案する。
2つの合成から実のセマンティックセグメンテーションベンチマークの実験により、AdvStyleは目に見えない実領域におけるモデル性能を大幅に改善できることを示した。
論文 参考訳(メタデータ) (2022-07-11T14:01:25Z) - Domain Enhanced Arbitrary Image Style Transfer via Contrastive Learning [84.8813842101747]
Contrastive Arbitrary Style Transfer (CAST) は、新しいスタイル表現学習法である。
本フレームワークは,スタイルコード符号化のための多層スタイルプロジェクタ,スタイル分布を効果的に学習するためのドメイン拡張モジュール,画像スタイル転送のための生成ネットワークという,3つのキーコンポーネントから構成される。
論文 参考訳(メタデータ) (2022-05-19T13:11:24Z) - Wave-SAN: Wavelet based Style Augmentation Network for Cross-Domain
Few-Shot Learning [95.78635058475439]
クロスドメイン少ショット学習は、一般的な自然画像から新しいドメイン固有のターゲットカテゴリへ知識を伝達することを目的としている。
本稿では、ソースデータセットのスタイル分布を分散させることにより、CD-FSLの問題点を考察する。
我々のモデルを視覚的スタイルに堅牢にするために、低周波成分のスタイルを交換することで、ソースイメージを拡張します。
論文 参考訳(メタデータ) (2022-03-15T05:36:41Z) - 3DSNet: Unsupervised Shape-to-Shape 3D Style Transfer [66.48720190245616]
本稿では,3次元オブジェクト間のスタイル伝達のための学習に基づくアプローチを提案する。
提案手法は点雲とメッシュの両方で新しい3次元形状を合成することができる。
選択したドメインのマルチモーダルなスタイル分布を暗黙的に学習するために,我々の手法を拡張した。
論文 参考訳(メタデータ) (2020-11-26T16:59:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。