論文の概要: U-Face: An Efficient and Generalizable Framework for Unsupervised Facial Attribute Editing via Subspace Learning
- arxiv url: http://arxiv.org/abs/2603.14004v1
- Date: Sat, 14 Mar 2026 16:09:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 16:19:35.537914
- Title: U-Face: An Efficient and Generalizable Framework for Unsupervised Facial Attribute Editing via Subspace Learning
- Title(参考訳): U-Face: サブスペース学習による非教師付き顔属性編集のための効率的で一般化可能なフレームワーク
- Authors: Bo Liu, Xuan Cui, Run Zeng, Wei Duan, Chongwen Liu, Jinrui Qian, Lianggui Tang, Hongping Gan,
- Abstract要約: 本稿では,教師なしの顔属性編集において,効果的かつ適応的なソリューションを提供するための新しいフレームワークを提案する。
提案手法は意味的ベクトル学習を部分空間学習問題とみなし,潜在ベクトルを意味的ベクトル行列で表される下位次元の意味的部分空間内で近似する。
意味的ベクトルに非負の制約を導入し, 属性境界ベクトルを組み込んで学習方向の絡み合いを低減する。
- 参考スコア(独自算出の注目度): 15.353166784413306
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Latent space-based facial attribute editing methods have gained popularity in applications such as digital entertainment, virtual avatar creation, and human-computer interaction systems due to their potential for efficient and flexible attribute manipulation, particularly for continuous edits. Among these, unsupervised latent space-based methods, which discover effective semantic vectors without relying on labeled data, have attracted considerable attention in the research community. However, existing methods still encounter difficulties in disentanglement, as manipulating a specific facial attribute may unintentionally affect other attributes, complicating fine-grained controllability. To address these challenges, we propose a novel framework designed to offer an effective and adaptable solution for unsupervised facial attribute editing, called Unsupervised Facial Attribute Controllable Editing (U-Face). The proposed method frames semantic vector learning as a subspace learning problem, where latent vectors are approximated within a lower-dimensional semantic subspace spanned by a semantic vector matrix. This formulation can also be equivalently interpreted from a projection-reconstruction perspective and further generalized into an autoencoder framework, providing a foundation that can support disentangled representation learning in a flexible manner. To improve disentanglement and controllability, we impose orthogonal non-negative constraints on the semantic vectors and incorporate attribute boundary vectors to reduce entanglement in the learned directions. Although these constraints make the optimization problem challenging, we design an alternating iterative algorithm, called Alternating Iterative Disentanglement and Controllability (AIDC), with closed-form updates and provable convergence under specific conditions.
- Abstract(参考訳): デジタルエンターテイメント、仮想アバター作成、人間とコンピュータのインタラクションシステムなどの応用において、特に連続的な編集において、より効率的で柔軟な属性操作の可能性から、遅延空間ベースの顔属性編集法が人気を集めている。
これらのうち、ラベル付きデータに頼らずに効果的な意味ベクトルを発見する非教師なし空間ベース手法は、研究コミュニティでかなりの注目を集めている。
しかし、特定の顔属性を操作することは、意図せず他の属性に影響を与え、きめ細かい制御性が複雑になるため、既存の手法はいまだに歪曲の難しさに悩まされている。
これらの課題に対処するために,非教師付き顔属性編集(Unsupervised Facial Attribute Controllable Editing (U-Face)) と呼ばれる,非教師付き顔属性編集のための効果的で適応可能なソリューションを提供する新しいフレームワークを提案する。
提案手法は意味的ベクトル学習を部分空間学習問題とみなし,潜在ベクトルを意味的ベクトル行列で表される下位次元の意味的部分空間内で近似する。
この定式化はプロジェクション・再構成の観点から等価に解釈することができ、さらにオートエンコーダフレームワークに一般化され、不整合表現学習を柔軟に支援できる基盤を提供する。
本研究では, 直交非負の制約を意味ベクトルに課し, 属性境界ベクトルを組み込むことにより, 学習方向の絡み合いを低減する。
これらの制約は最適化問題を困難なものにするが、我々はAlternating Iterative Disentanglement and Controllability (AIDC)と呼ばれる反復反復アルゴリズムを設計し、クローズドフォームの更新と特定の条件下での証明可能な収束を行う。
関連論文リスト
- Semantic Prioritization in Visual Counterfactual Explanations with Weighted Segmentation and Auto-Adaptive Region Selection [50.68751788132789]
本研究は,自動適応候補編集ネットワーク(WSAE-Net)を用いた重み付きセマンティックマップ(Weighted Semantic Map)という,革新的な手法を提案する。
重み付きセマンティックマップの生成は、計算される必要のある非意味的特徴単位の削減を最大化するように設計されている。
自動適応型候補編集シーケンスは、処理すべき特徴ユニット間の最適な計算順序を決定するように設計されている。
論文 参考訳(メタデータ) (2025-11-17T05:34:10Z) - Exploring and Leveraging Class Vectors for Classifier Editing [6.328734263302503]
微調整中にクラス固有の表現調整をキャプチャするクラスベクトルを導入する。
タスクベクトルは重み空間のタスクレベル変化をエンコードするが、クラスベクトルは各クラス適応を潜在空間で切り離す。
クラスベクタが各クラスのセマンティックシフトをキャプチャし、これらのベクタに沿って潜在機能をステアリングするか、あるいはそれらを重み空間にマッピングして決定境界を更新することで、分類器の編集が実現できることを示す。
論文 参考訳(メタデータ) (2025-10-13T10:57:51Z) - Multi-Modality Driven LoRA for Adverse Condition Depth Estimation [61.525312117638116]
逆条件深さ推定のためのMulti-Modality Driven LoRA(MMD-LoRA)を提案する。
Prompt Driven Domain Alignment (PDDA) と Visual-Text Consistent Contrastive Learning (VTCCL) の2つのコアコンポーネントで構成されている。
nuScenesとOxford RobotCarデータセットの最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2024-12-28T14:23:58Z) - PseudoNeg-MAE: Self-Supervised Point Cloud Learning using Conditional Pseudo-Negative Embeddings [55.55445978692678]
PseudoNeg-MAEは、ポイントクラウドマスマスキングオートエンコーダのグローバルな特徴表現を強化する。
本研究では,ネットワークが識別的表現を保ちながら,よりリッチな変換キューをキャプチャできる新たな損失を提案する。
論文 参考訳(メタデータ) (2024-09-24T07:57:21Z) - Disentangled Face Attribute Editing via Instance-Aware Latent Space
Search [30.17338705964925]
GAN(Generative Adversarial Networks)の潜在空間には、意味的な方向性の豊富な集合が存在する。
既存のメソッドは属性のばらつきが弱いため、望ましい属性を変更する際には、他の属性が望ましくない変更になる可能性がある。
本稿では,不整合属性編集のセマンティックな方向を求めるために,インスタンス認識遅延空間探索を行う新しいフレームワーク(IALS)を提案する。
論文 参考訳(メタデータ) (2021-05-26T16:19:08Z) - Efficient Semantic Image Synthesis via Class-Adaptive Normalization [116.63715955932174]
クラス適応正規化(CLADE)は、セマンティッククラスにのみ適応する軽量かつ等価なバリアントである。
セマンティクスレイアウトから計算したクラス内位置マップエンコーディングを導入し,cladeの正規化パラメータを変調する。
提案されたCLADEは異なるSPADEベースのメソッドに一般化し、SPADEと比較して同等の生成品質を達成できる。
論文 参考訳(メタデータ) (2020-12-08T18:59:32Z) - Towards Disentangling Latent Space for Unsupervised Semantic Face
Editing [21.190437168936764]
修正属性の編集には注釈付きトレーニングデータが必要で、編集可能な属性をラベル付き属性に制限する。
本稿では、重み分解と直交正規化(STIA-WO)を用いた構造テクスチュア独立アーキテクチャ(Structure-Texture Independent Architecture)と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2020-11-05T03:29:24Z) - Learning to Manipulate Individual Objects in an Image [71.55005356240761]
本稿では,独立性および局所性を有する潜在因子を用いた生成モデルを学習する手法について述べる。
これは、潜伏変数の摂動が、オブジェクトに対応する合成画像の局所領域のみに影響を与えることを意味する。
他の教師なし生成モデルとは異なり、オブジェクトレベルのアノテーションを必要とせず、オブジェクト中心の操作を可能にする。
論文 参考訳(メタデータ) (2020-04-11T21:50:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。