論文の概要: CUDA-GR: Controllable Unsupervised Domain Adaptation for Gaze
Redirection
- arxiv url: http://arxiv.org/abs/2106.10852v1
- Date: Mon, 21 Jun 2021 04:39:42 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-23 01:47:16.748382
- Title: CUDA-GR: Controllable Unsupervised Domain Adaptation for Gaze
Redirection
- Title(参考訳): CUDA-GR: Gaze Redirection のための制御不能なドメイン適応
- Authors: Swati Jindal, Xin Eric Wang
- Abstract要約: 視線リダイレクトの目的は、画像中の視線を所望の方向に向けて操作することである。
生成的対向ネットワークの進歩は、フォトリアリスティック画像の生成において優れた結果を示している。
このような微調整の制御を可能にするためには、非常に高価なトレーニングデータに対して、基礎となる真理アノテーションを得る必要がある。
- 参考スコア(独自算出の注目度): 3.0141238193080295
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The aim of gaze redirection is to manipulate the gaze in an image to the
desired direction. However, existing methods are inadequate in generating
perceptually reasonable images. Advancement in generative adversarial networks
has shown excellent results in generating photo-realistic images. Though, they
still lack the ability to provide finer control over different image
attributes. To enable such fine-tuned control, one needs to obtain ground truth
annotations for the training data which can be very expensive. In this paper,
we propose an unsupervised domain adaptation framework, called CUDA-GR, that
learns to disentangle gaze representations from the labeled source domain and
transfers them to an unlabeled target domain. Our method enables fine-grained
control over gaze directions while preserving the appearance information of the
person. We show that the generated image-labels pairs in the target domain are
effective in knowledge transfer and can boost the performance of the downstream
tasks. Extensive experiments on the benchmarking datasets show that the
proposed method can outperform state-of-the-art techniques in both quantitative
and qualitative evaluation.
- Abstract(参考訳): 視線方向転換の目的は、画像中の視線を所望の方向に操作することである。
しかし、既存の手法は知覚的に妥当な画像を生成するのに不十分である。
生成的対向ネットワークの進歩は、フォトリアリスティック画像の生成において優れた結果を示している。
しかし、異なる画像属性に対してより細かいコントロールを提供する能力は依然として欠けている。
このような微調整制御を可能にするためには、非常に費用がかかる訓練データに対する根拠真理アノテーションを得る必要がある。
本稿では,ラベル付きソースドメインから視線表現を外し,ラベル付き対象ドメインに転送する,教師なしドメイン適応フレームワークであるcuda-grを提案する。
本手法は,人物の外観情報を保存しながら視線方向のきめ細かい制御を可能にする。
対象領域で生成された画像ラベルペアは,知識伝達に有効であり,下流タスクの性能を向上できることを示す。
ベンチマークデータセットの大規模な実験により,提案手法は定量評価と定性評価の両方において最先端技術より優れていることが示された。
関連論文リスト
- Towards Generic Image Manipulation Detection with Weakly-Supervised
Self-Consistency Learning [49.43362803584032]
本稿では,弱い教師付き画像操作検出を提案する。
このような設定は、より多くのトレーニングイメージを活用することができ、新しい操作テクニックに迅速に適応する可能性がある。
マルチソース整合性(MSC)とパッチ整合性(IPC)の2つの一貫性特性が学習される。
論文 参考訳(メタデータ) (2023-09-03T19:19:56Z) - Domain Adaptation for Medical Image Segmentation using
Transformation-Invariant Self-Training [7.738197566031678]
領域適応型変換不変自己学習(TI-ST)のための半教師付き学習戦略を提案する。
提案手法は,画素単位の擬似ラベルの信頼性を評価し,自己学習中の信頼できない検出をフィルタリングする。
論文 参考訳(メタデータ) (2023-07-31T13:42:56Z) - Learning Hierarchical Graph Representation for Image Manipulation
Detection [50.04902159383709]
画像操作検出の目的は、画像内の操作された領域を特定し、特定することである。
最近のアプローチでは、画像に残っている改ざんするアーティファクトをキャプチャするために、洗練された畳み込みニューラルネットワーク(CNN)が採用されている。
本稿では2つの並列分岐からなる階層型グラフ畳み込みネットワーク(HGCN-Net)を提案する。
論文 参考訳(メタデータ) (2022-01-15T01:54:25Z) - Unsupervised Discovery of Disentangled Manifolds in GANs [74.24771216154105]
解釈可能な生成プロセスは、様々な画像編集アプリケーションに有用である。
本稿では,任意の学習された生成逆数ネットワークが与えられた潜在空間における解釈可能な方向を検出する枠組みを提案する。
論文 参考訳(メタデータ) (2020-11-24T02:18:08Z) - Self-Learning Transformations for Improving Gaze and Head Redirection [49.61091281780071]
視線や頭部方向の角度をきめ細かな制御で高品質な画像を生成できる新しい顔画像生成モデルを提案する。
これは、視線やヘッドオリエンテーション、照明、色合いなど、多くの外見上の要因を解消する必要がある。
タスク非関連要因の明示的解消は、視線と頭部の向きのより正確なモデリングをもたらすことを示す。
論文 参考訳(メタデータ) (2020-10-23T11:18:37Z) - Controllable Continuous Gaze Redirection [47.15883248953411]
制御可能な視線リダイレクトのための新しいフレームワークであるInterpGazeを提案する。
我々のゴールは、ある人物の視線を基準画像に描かれたあらゆる視線方向へとリダイレクトすることである。
提案したInterpGazeは、画像の品質とリダイレクト精度で最先端の手法より優れている。
論文 参考訳(メタデータ) (2020-10-09T11:50:06Z) - T-GD: Transferable GAN-generated Images Detection Framework [16.725880610265378]
本稿では,Transferable GAN-images Detection framework T-GDを提案する。
T-GDは教師と学生モデルから構成されており、相互に反復的に教え、評価し、検出性能を向上させることができる。
学生モデルを訓練するために、音源とターゲットデータセットを混合してノイズを注入し、ウェイト変動を制約して開始点を保存する。
論文 参考訳(メタデータ) (2020-08-10T13:20:19Z) - Coarse-to-Fine Gaze Redirection with Numerical and Pictorial Guidance [74.27389895574422]
本稿では,数値誘導と画像誘導の両方を利用した新しい視線リダイレクトフレームワークを提案する。
提案手法は,画像品質とリダイレクト精度の両方の観点から,最先端の手法よりも優れている。
論文 参考訳(メタデータ) (2020-04-07T01:17:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。