論文の概要: StyleYourSmile: Cross-Domain Face Retargeting Without Paired Multi-Style Data
- arxiv url: http://arxiv.org/abs/2512.01895v1
- Date: Mon, 01 Dec 2025 17:14:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-02 19:46:34.986378
- Title: StyleYourSmile: Cross-Domain Face Retargeting Without Paired Multi-Style Data
- Title(参考訳): StyleYourSmile: ピアリングされたマルチスタイルデータのない、クロスドメインの顔リターゲティング
- Authors: Avirup Dey, Vinay Namboodiri,
- Abstract要約: クロスドメインフェイスは、ID、式、ドメイン固有の属性をアンタングルで制御する必要がある。
textitStyleYourSmileは、幅広い視覚領域にわたって優れたアイデンティティ保存と忠実性を実現する。
- 参考スコア(独自算出の注目度): 0.22917707112773592
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Cross-domain face retargeting requires disentangled control over identity, expressions, and domain-specific stylistic attributes. Existing methods, typically trained on real-world faces, either fail to generalize across domains, need test-time optimizations, or require fine-tuning with carefully curated multi-style datasets to achieve domain-invariant identity representations. In this work, we introduce \textit{StyleYourSmile}, a novel one-shot cross-domain face retargeting method that eliminates the need for curated multi-style paired data. We propose an efficient data augmentation strategy alongside a dual-encoder framework, for extracting domain-invariant identity cues and capturing domain-specific stylistic variations. Leveraging these disentangled control signals, we condition a diffusion model to retarget facial expressions across domains. Extensive experiments demonstrate that \textit{StyleYourSmile} achieves superior identity preservation and retargeting fidelity across a wide range of visual domains.
- Abstract(参考訳): ドメイン間の顔の再ターゲティングには、アイデンティティ、式、ドメイン固有のスタイリスティック属性をアンタングルで制御する必要がある。
既存の方法は、現実世界の顔で訓練されるが、ドメインをまたいだ一般化に失敗したり、テストタイムの最適化が必要であったり、ドメイン不変のアイデンティティ表現を達成するために、慎重にキュレートされたマルチスタイルのデータセットで微調整が必要だったりしている。
そこで本研究では,複数形式のペアリングデータの必要性を解消する,新しいワンショット・クロスドメイン・フェイス・リターゲティング手法である \textit{StyleYourSmile} を紹介する。
本稿では、ドメイン不変なIDキューを抽出し、ドメイン固有のスタイル変化を捉えるために、デュアルエンコーダフレームワークと共に効率的なデータ拡張戦略を提案する。
これらの不整合制御信号を活用することで、拡散モデルを用いて、ドメイン間での表情の再ターゲティングを行う。
広汎な実験により, さまざまな視覚領域にまたがって, アイデンティティの保存と忠実度の再ターゲティングを実現することが実証された。
関連論文リスト
- Boundless Across Domains: A New Paradigm of Adaptive Feature and Cross-Attention for Domain Generalization in Medical Image Segmentation [1.93061220186624]
ドメイン不変表現学習は、ドメイン一般化の強力な方法である。
従来のアプローチでは、高い計算要求、トレーニングの不安定性、高次元データによる限られた有効性といった課題に直面していた。
本研究では,分布空間を探索しながら分布外サンプルを生成する適応的特徴ブレンディング(AFB)手法を提案する。
論文 参考訳(メタデータ) (2024-11-22T12:06:24Z) - Generalize or Detect? Towards Robust Semantic Segmentation Under Multiple Distribution Shifts [56.57141696245328]
斬新なクラスとドメインの両方が存在するようなオープンワールドシナリオでは、理想的なセグメンテーションモデルは安全のために異常なクラスを検出する必要がある。
既存の方法はドメインレベルとセマンティックレベルの分散シフトを区別するのに苦労することが多い。
論文 参考訳(メタデータ) (2024-11-06T11:03:02Z) - Cyclically Disentangled Feature Translation for Face Anti-spoofing [61.70377630461084]
循環不整合特徴変換ネットワーク(CDFTN)と呼ばれる新しい領域適応手法を提案する。
CDFTNは、(1)ソースドメイン不変の生長特徴と2)ドメイン固有のコンテンツ特徴とを持つ擬似ラベル付きサンプルを生成する。
ソースドメインラベルの監督の下で、合成擬似ラベル付き画像に基づいてロバスト分類器を訓練する。
論文 参考訳(メタデータ) (2022-12-07T14:12:34Z) - META: Mimicking Embedding via oThers' Aggregation for Generalizable
Person Re-identification [68.39849081353704]
Domain Generalizable (DG) Person Re-identification (ReID)は、トレーニング時に対象のドメインデータにアクセスすることなく、見えないドメインをまたいでテストすることを目的としている。
本稿では,DG ReID のための OThers' Aggregation (META) を用いた Mimicking Embedding という新しい手法を提案する。
論文 参考訳(メタデータ) (2021-12-16T08:06:50Z) - AFAN: Augmented Feature Alignment Network for Cross-Domain Object
Detection [90.18752912204778]
オブジェクト検出のための教師なしドメイン適応は、多くの現実世界のアプリケーションにおいて難しい問題である。
本稿では、中間領域画像生成とドメイン・アドバイザリー・トレーニングを統合した新しい機能アライメント・ネットワーク(AFAN)を提案する。
提案手法は、類似および異種ドメイン適応の双方において、標準ベンチマークにおける最先端の手法よりも大幅に優れている。
論文 参考訳(メタデータ) (2021-06-10T05:01:20Z) - Disentanglement-based Cross-Domain Feature Augmentation for Effective
Unsupervised Domain Adaptive Person Re-identification [87.72851934197936]
Unsupervised Domain Adaptive (UDA) Person Re-identification (ReID) は、ラベル付きソースドメインからラベル付きターゲットドメインへ知識を転送することを目的としている。
ひとつの課題は、トレーニング用に信頼できるラベルでターゲットドメインサンプルを生成する方法だ。
ディスタングルメントに基づくクロスドメイン機能拡張戦略を提案する。
論文 参考訳(メタデータ) (2021-03-25T15:28:41Z) - Adversarial Graph Representation Adaptation for Cross-Domain Facial
Expression Recognition [86.25926461936412]
本稿では,グラフ表現の伝播と逆学習を両立させる新しいAdrialversa Graph Representation Adaptation (AGRA) フレームワークを提案する。
提案するAGRAフレームワークは,従来の最先端手法よりも優れた性能を発揮することを示す。
論文 参考訳(メタデータ) (2020-08-03T13:27:24Z) - End-to-End Domain Adaptive Attention Network for Cross-Domain Person
Re-Identification [43.335020352127366]
本稿では,ドメイン間の画像の同時変換と識別的再識別子特徴の学習を目的とした,エンドツーエンドのドメイン適応型アダプティブアテンションネットワークを提案する。
人物の同一性に影響を与えることなく、ソースからターゲットドメインへの画像翻訳のためのアテンションモジュールを導入する。
提案したジョイントラーニングネットワークは,いくつかのベンチマークデータセット上での最先端手法よりも大幅な性能向上を実現している。
論文 参考訳(メタデータ) (2020-05-07T03:17:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。