論文の概要: IntraStyler: Exemplar-based Style Synthesis for Cross-modality Domain Adaptation
- arxiv url: http://arxiv.org/abs/2601.00212v1
- Date: Thu, 01 Jan 2026 05:04:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-05 15:04:33.311554
- Title: IntraStyler: Exemplar-based Style Synthesis for Cross-modality Domain Adaptation
- Title(参考訳): IntraStyler: クロスモダリティドメイン適応のための例ベースのスタイル合成
- Authors: Han Liu, Yubo Fan, Hao Li, Dewei Hu, Daniel Moyer, Zhoubing Xu, Benoit M. Dawant, Ipek Oguz,
- Abstract要約: IntraStylerという,模範的なスタイル合成手法を提案する。
IntraStylerは、事前の知識なしに、さまざまなドメイン内スタイルをキャプチャする。
我々は,クロスモダリティドメイン適応のための最大のパブリックデータセットであるCrossMoDA 2023について,提案手法の評価を行った。
- 参考スコア(独自算出の注目度): 10.992865284270259
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Image-level domain alignment is the de facto approach for unsupervised domain adaptation, where unpaired image translation is used to minimize the domain gap. Prior studies mainly focus on the domain shift between the source and target domains, whereas the intra-domain variability remains under-explored. To address the latter, an effective strategy is to diversify the styles of the synthetic target domain data during image translation. However, previous methods typically require intra-domain variations to be pre-specified for style synthesis, which may be impractical. In this paper, we propose an exemplar-based style synthesis method named IntraStyler, which can capture diverse intra-domain styles without any prior knowledge. Specifically, IntraStyler uses an exemplar image to guide the style synthesis such that the output style matches the exemplar style. To extract the style-only features, we introduce a style encoder to learn styles discriminatively based on contrastive learning. We evaluate the proposed method on the largest public dataset for cross-modality domain adaptation, CrossMoDA 2023. Our experiments show the efficacy of our method in controllable style synthesis and the benefits of diverse synthetic data for downstream segmentation. Code is available at https://github.com/han-liu/IntraStyler.
- Abstract(参考訳): 画像レベルのドメインアライメントは、教師なし領域適応のデファクトアプローチであり、未ペア画像変換はドメインギャップを最小限にするために使用される。
以前の研究では、主にソースとターゲットドメイン間のドメインシフトに焦点が当てられていたが、ドメイン内の変動は未探索のままであった。
後者に対処する効果的な戦略は、画像翻訳中に合成対象領域データのスタイルを多様化させることである。
しかし、従来の手法では、スタイル合成のために事前に指定するためにドメイン内のバリエーションを必要とするが、これは現実的ではないかもしれない。
本稿では,従来の知識を使わずにドメイン内の多様なスタイルをキャプチャできる,イントラスタイラーという模範的なスタイル合成手法を提案する。
特に、IntraStylerは、模範的なイメージを使用して、出力スタイルが模範的なスタイルにマッチするように、スタイル合成をガイドする。
スタイルのみの特徴を抽出するために,コントラスト学習に基づいてスタイルを識別的に学習するスタイルエンコーダを導入する。
提案手法を,クロスモダリティドメイン適応のための最大のパブリックデータセットであるCrossMoDA 2023上で評価した。
本実験は,制御可能なスタイル合成における本手法の有効性と,下流セグメンテーションにおける多様な合成データの有用性を示す。
コードはhttps://github.com/han-liu/IntraStyler.comから入手できる。
関連論文リスト
- SIDA: Synthetic Image Driven Zero-shot Domain Adaptation [5.542712070598464]
ゼロショット領域適応は、ターゲット領域の画像データを活用することなく、対象領域にモデルを適用する方法である。
合成画像を利用した新規で効率的なゼロショット領域適応手法であるSIDAを提案する。
多様なゼロショット適応シナリオにおける最先端性能を示すことで,本手法の有効性を実証する。
論文 参考訳(メタデータ) (2025-07-24T17:59:36Z) - ParaGuide: Guided Diffusion Paraphrasers for Plug-and-Play Textual Style
Transfer [57.6482608202409]
テキストスタイル転送は、意味を保ちながらテキストのスタイル特性を変換するタスクである。
任意のスタイルに柔軟に適応できる汎用型転送のための新しい拡散型フレームワークを提案する。
本研究では,人的評価と自動評価の両面から,Enron Email Corpusの手法を検証するとともに,形式性,感情,さらにはオーサシップスタイルの伝達にも優れることを示す。
論文 参考訳(メタデータ) (2023-08-29T17:36:02Z) - Any-to-Any Style Transfer: Making Picasso and Da Vinci Collaborate [58.83278629019384]
スタイル転送は、コンテンツ参照のために、ある画像のスタイルを他の画像へのスタイル参照にレンダリングすることを目的としている。
既存のアプローチでは、スタイルイメージの全体的スタイルをグローバルな方法で適用するか、あるいは、スタイルイメージのローカル色とテクスチャを、事前に定義された方法でコンテンツに移行するかのいずれかである。
本稿では,Any-to-Any Style Transferを提案する。Any-to-Any Style Transferは,スタイル画像中の領域のスタイルを対話的に選択し,所定のコンテンツ領域に適用することができる。
論文 参考訳(メタデータ) (2023-04-19T15:15:36Z) - StyleAdv: Meta Style Adversarial Training for Cross-Domain Few-Shot
Learning [89.86971464234533]
Cross-Domain Few-Shot Learning (CD-FSL)は、最近登場したタスクで、異なるドメインにわたる数ショットの学習に対処している。
本稿では,モデルに依存しないメタスタイル逆アタック(StyleAdv)手法と,新しいスタイル逆アタック手法を提案する。
本手法は視覚的スタイルに対して徐々に頑健であり,新たなターゲットデータセットの一般化能力を高める。
論文 参考訳(メタデータ) (2023-02-18T11:54:37Z) - Adversarial Style Augmentation for Domain Generalized Urban-Scene
Segmentation [120.96012935286913]
そこで本研究では,学習中にハードなスタイリング画像を生成可能な,新たな対向型拡張手法を提案する。
2つの合成から実のセマンティックセグメンテーションベンチマークの実験により、AdvStyleは目に見えない実領域におけるモデル性能を大幅に改善できることを示した。
論文 参考訳(メタデータ) (2022-07-11T14:01:25Z) - Domain Enhanced Arbitrary Image Style Transfer via Contrastive Learning [84.8813842101747]
Contrastive Arbitrary Style Transfer (CAST) は、新しいスタイル表現学習法である。
本フレームワークは,スタイルコード符号化のための多層スタイルプロジェクタ,スタイル分布を効果的に学習するためのドメイン拡張モジュール,画像スタイル転送のための生成ネットワークという,3つのキーコンポーネントから構成される。
論文 参考訳(メタデータ) (2022-05-19T13:11:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。