論文の概要: SIDA: Synthetic Image Driven Zero-shot Domain Adaptation
- arxiv url: http://arxiv.org/abs/2507.18632v1
- Date: Thu, 24 Jul 2025 17:59:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-25 15:10:44.310342
- Title: SIDA: Synthetic Image Driven Zero-shot Domain Adaptation
- Title(参考訳): SIDA: 合成画像駆動ゼロショットドメイン適応
- Authors: Ye-Chan Kim, SeungJu Cha, Si-Woo Kim, Taewhan Kim, Dong-Jin Kim,
- Abstract要約: ゼロショット領域適応は、ターゲット領域の画像データを活用することなく、対象領域にモデルを適用する方法である。
合成画像を利用した新規で効率的なゼロショット領域適応手法であるSIDAを提案する。
多様なゼロショット適応シナリオにおける最先端性能を示すことで,本手法の有効性を実証する。
- 参考スコア(独自算出の注目度): 5.542712070598464
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Zero-shot domain adaptation is a method for adapting a model to a target domain without utilizing target domain image data. To enable adaptation without target images, existing studies utilize CLIP's embedding space and text description to simulate target-like style features. Despite the previous achievements in zero-shot domain adaptation, we observe that these text-driven methods struggle to capture complex real-world variations and significantly increase adaptation time due to their alignment process. Instead of relying on text descriptions, we explore solutions leveraging image data, which provides diverse and more fine-grained style cues. In this work, we propose SIDA, a novel and efficient zero-shot domain adaptation method leveraging synthetic images. To generate synthetic images, we first create detailed, source-like images and apply image translation to reflect the style of the target domain. We then utilize the style features of these synthetic images as a proxy for the target domain. Based on these features, we introduce Domain Mix and Patch Style Transfer modules, which enable effective modeling of real-world variations. In particular, Domain Mix blends multiple styles to expand the intra-domain representations, and Patch Style Transfer assigns different styles to individual patches. We demonstrate the effectiveness of our method by showing state-of-the-art performance in diverse zero-shot adaptation scenarios, particularly in challenging domains. Moreover, our approach achieves high efficiency by significantly reducing the overall adaptation time.
- Abstract(参考訳): ゼロショット領域適応は、ターゲット領域の画像データを活用することなく、対象領域にモデルを適用する方法である。
既存の研究では、CLIPの埋め込み空間とテキスト記述を利用して、ターゲットライクな特徴をシミュレートしている。
ゼロショット領域適応のこれまでの成果にもかかわらず、これらのテキスト駆動方式は複雑な実世界の変動を捉えるのに苦労し、アライメント処理による適応時間を著しく向上させる。
テキスト記述に頼る代わりに、多種多様なよりきめ細かなスタイルの手がかりを提供する画像データを活用したソリューションを探求する。
本研究では,合成画像を利用した新規で効率的なゼロショット領域適応手法であるSIDAを提案する。
合成画像を生成するために、まず、詳細なソースライクな画像を作成し、対象領域のスタイルを反映するために画像翻訳を適用する。
次に、これらの合成画像のスタイル特徴をターゲット領域のプロキシとして利用する。
これらの特徴に基づき、実世界の変動を効果的にモデル化できるDomain MixおよびPatch Style Transferモジュールを導入する。
特にDomain Mixはドメイン内の表現を拡張するために複数のスタイルをブレンドし、Patch Style Transferは個々のパッチに異なるスタイルを割り当てる。
様々なゼロショット適応シナリオ,特に挑戦領域において,最先端の性能を示すことによって,本手法の有効性を実証する。
さらに,本手法は適応時間を大幅に短縮し,高い効率性を実現する。
関連論文リスト
- Zero Shot Domain Adaptive Semantic Segmentation by Synthetic Data Generation and Progressive Adaptation [8.124539956043074]
本稿では,ゼロショット領域適応型セマンティックセマンティックセグメンテーションに挑戦する新たな手法を提案する。
トレーニング済みオフザシェルフテキスト・ツー・イメージ拡散モデルを用いて,ソース・ドメイン・イメージをターゲット・スタイルに転送することでトレーニング・イメージを生成する。
合成データにおけるノイズの影響を軽減するため,我々は,学習過程を通じて堅牢な学習を確実にする,進行的適応戦略を設計する。
論文 参考訳(メタデータ) (2025-08-05T10:21:09Z) - HyperGAN-CLIP: A Unified Framework for Domain Adaptation, Image Synthesis and Manipulation [21.669044026456557]
GAN(Generative Adversarial Networks)は、非常にリアルな画像を生成する際、顕著な能力を示した。
本稿では,CLIP空間をハイパーネットワーク経由で統合することにより,事前学習したStyleGANの機能を大幅に拡張する新しいフレームワークを提案する。
提案手法は,テキスト固有のトレーニングデータを必要としないテキスト誘導画像操作が可能な,前例のない柔軟性を示す。
論文 参考訳(メタデータ) (2024-11-19T19:36:18Z) - Language Guided Domain Generalized Medical Image Segmentation [68.93124785575739]
単一ソースドメインの一般化は、より信頼性が高く一貫性のあるイメージセグメンテーションを現実の臨床環境にわたって約束する。
本稿では,テキストエンコーダ機能によって案内されるコントラスト学習機構を組み込むことで,テキスト情報を明確に活用する手法を提案する。
文献における既存手法に対して,本手法は良好な性能を発揮する。
論文 参考訳(メタデータ) (2024-04-01T17:48:15Z) - Phrase Grounding-based Style Transfer for Single-Domain Generalized
Object Detection [109.58348694132091]
単一ドメインの一般化オブジェクト検出は、複数の未確認対象ドメインに対するモデルの一般化性を高めることを目的としている。
これは、ターゲットのドメインデータをトレーニングに組み込むことなく、ドメインシフトに対処するモデルを必要とするため、実用的だが難しいタスクである。
そこで我々は,課題に対する新しい文節接頭辞に基づくスタイル伝達手法を提案する。
論文 参考訳(メタデータ) (2024-02-02T10:48:43Z) - Improving Diversity in Zero-Shot GAN Adaptation with Semantic Variations [61.132408427908175]
0ショットのGAN適応は、よく訓練されたジェネレータを再利用して、目に見えないターゲットドメインの画像を合成することを目的としている。
実際の画像の代わりに1つの代表的テキスト機能しか持たないため、合成された画像は徐々に多様性を損なう。
そこで本研究では,CLIP空間における対象テキストの意味的変化を見つけるための新しい手法を提案する。
論文 参考訳(メタデータ) (2023-08-21T08:12:28Z) - One-shot Unsupervised Domain Adaptation with Personalized Diffusion
Models [15.590759602379517]
ラベル付きソースドメインからターゲットドメインへのセグメンテーションモデルの適用は、ドメイン適応において最も難しい問題の1つである。
テキストと画像の拡散モデルを用いて、写真リアル画像を用いた合成ターゲットデータセットを生成する。
実験の結果,本手法は最先端OSUDA法を最大7.1%超えることがわかった。
論文 参考訳(メタデータ) (2023-03-31T14:16:38Z) - Towards Diverse and Faithful One-shot Adaption of Generative Adversarial
Networks [54.80435295622583]
ワンショット生成ドメイン適応は、訓練済みのジェネレータを1つの参照画像のみを使用して、新しいドメインに転送することを目的としている。
本稿では、多種多様な世代と忠実な適応のための新しい一発生成ドメイン適応法、すなわち、DiFaを提案する。
論文 参考訳(メタデータ) (2022-07-18T16:29:41Z) - Adversarial Style Augmentation for Domain Generalized Urban-Scene
Segmentation [120.96012935286913]
そこで本研究では,学習中にハードなスタイリング画像を生成可能な,新たな対向型拡張手法を提案する。
2つの合成から実のセマンティックセグメンテーションベンチマークの実験により、AdvStyleは目に見えない実領域におけるモデル性能を大幅に改善できることを示した。
論文 参考訳(メタデータ) (2022-07-11T14:01:25Z) - DRANet: Disentangling Representation and Adaptation Networks for
Unsupervised Cross-Domain Adaptation [23.588766224169493]
dranetは画像表現を分離し、教師なしのクロスドメイン適応のために潜在空間に視覚属性を転送するネットワークアーキテクチャである。
私たちのモデルは、ソースイメージとターゲットイメージの両方からコンテンツ(シーン構造)とスタイル(芸術的外観)の個々の表現をエンコードします。
変換されたスタイルファクタを、各ドメインに指定された学習可能なウェイトと共にコンテンツファクタに組み込むことで、ドメインに適応する。
論文 参考訳(メタデータ) (2021-03-24T18:54:23Z) - CrDoCo: Pixel-level Domain Transfer with Cross-Domain Consistency [119.45667331836583]
教師なしのドメイン適応アルゴリズムは、あるドメインから学んだ知識を別のドメインに転送することを目的としている。
本稿では,新しい画素単位の対向領域適応アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-01-09T19:00:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。