論文の概要: Virtual Accessory Try-On via Keypoint Hallucination
- arxiv url: http://arxiv.org/abs/2310.17131v1
- Date: Thu, 26 Oct 2023 04:11:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-27 22:22:46.204650
- Title: Virtual Accessory Try-On via Keypoint Hallucination
- Title(参考訳): keypoint hallucinationによる仮想アクセサリーの試用
- Authors: Junhong Gou, Bo Zhang, Li Niu, Jianfu Zhang, Jianlou Si, Chen Qian,
Liqing Zhang
- Abstract要約: 人体やアクセサリーの事前知識を利用するための背景指向ネットワークを提案する。
提案手法は, 人体における前景キーポイントの目標位置を学習し, 幻覚する。
STRATデータセットを用いて提案手法の有効性を検証した。
- 参考スコア(独自算出の注目度): 38.981031493670685
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The virtual try-on task refers to fitting the clothes from one image onto
another portrait image. In this paper, we focus on virtual accessory try-on,
which fits accessory (e.g., glasses, ties) onto a face or portrait image.
Unlike clothing try-on, which relies on human silhouette as guidance, accessory
try-on warps the accessory into an appropriate location and shape to generate a
plausible composite image. In contrast to previous try-on methods that treat
foreground (i.e., accessories) and background (i.e., human faces or bodies)
equally, we propose a background-oriented network to utilize the prior
knowledge of human bodies and accessories. Specifically, our approach learns
the human body priors and hallucinates the target locations of specified
foreground keypoints in the background. Then our approach will inject
foreground information with accessory priors into the background UNet. Based on
the hallucinated target locations, the warping parameters are calculated to
warp the foreground. Moreover, this background-oriented network can also easily
incorporate auxiliary human face/body semantic segmentation supervision to
further boost performance. Experiments conducted on STRAT dataset validate the
effectiveness of our proposed method.
- Abstract(参考訳): 仮想試着作業は、ある画像から別の肖像画に衣服を合わせることを指す。
本稿では,顔やポートレート画像にアクセサリ(眼鏡,ネクタイなど)を装着した仮想アクセサリトライオンに焦点を当てる。
指示として人間のシルエットに依存する衣料品の試着とは異なり、アクセサリの試着はアクセサリーを適切な場所と形状に縛り付け、妥当な合成画像を生成する。
前景(アクセサリー)と背景(例えば、人間の顔や身体)を等しく扱う従来の試行法とは対照的に、人体やアクセサリーの以前の知識を利用するための背景指向ネットワークを提案する。
特に,本研究では,人体を学習し,特定の前景キーポイントの目標位置をバックグラウンドで幻覚する。
そして、我々のアプローチは、背景のUNetにアクセサリープリエントで前景情報を注入する。
照準された目標位置に基づいて、反りパラメータを算出して前景をワープする。
さらに、この背景指向ネットワークは、パフォーマンスをさらに高めるために、補助的な顔/身体意味セグメンテーションの監督を組み込むのも容易である。
STRATデータセットを用いて提案手法の有効性を検証した。
関連論文リスト
- Masked Extended Attention for Zero-Shot Virtual Try-On In The Wild [17.025262797698364]
仮想トライオン(Virtual Try-On)は、人物や衣服の特徴を保ちながら、画像中の衣服を別のものに置き換えることを目的としている。
現在の文献では、タスクの教師付きアプローチを採用し、一般化を損なうとともに、重い計算を課している。
本稿では,衣服の着衣を参考に塗布するためのゼロショットトレーニングフリーな新しい手法を提案する。
論文 参考訳(メタデータ) (2024-06-21T17:45:37Z) - A natural language processing-based approach: mapping human perception
by understanding deep semantic features in street view images [2.5880672192855414]
本研究では,人間の知覚とシーンの関係を理解するために,事前学習型自然言語モデルに基づく新しいフレームワークを提案する。
以上の結果から, 深い意味的特徴による人間の知覚評価は, 浅い特徴を持つ機械学習手法による従来の研究よりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2023-11-29T05:00:43Z) - A survey on facial image deblurring [3.6775758132528877]
顔画像がぼやけていると、顔認識などのハイレベルな視覚タスクに大きな影響を与えます。
本稿では,最近発表された顔画像の難読化手法について概説し,その大部分はディープラーニングに基づくものである。
本稿では,データセットとメトリクスにおける古典的手法の性能を示すとともに,モデルに基づく手法と学習に基づく手法の違いについて,簡単な議論を行う。
論文 参考訳(メタデータ) (2023-02-10T02:24:56Z) - OccluMix: Towards De-Occlusion Virtual Try-on by Semantically-Guided
Mixup [79.3118064406151]
Image Virtual try-onは、個人画像上の布を衣服画像(ホップ内服)に置き換えることを目的としている。
以前の方法では, 衣服のイメージの保存に成功していた。
隠蔽は、現実的なバーチャル試行に悪影響を及ぼす。
論文 参考訳(メタデータ) (2023-01-03T06:29:11Z) - OPOM: Customized Invisible Cloak towards Face Privacy Protection [58.07786010689529]
我々は、新しいタイプのカスタマイズクロークに基づく技術の観点から、顔のプライバシ保護について検討する。
本研究では,個人固有の(クラスワイドな)ユニバーサルマスクを生成するために,1人1マスク(OPOM)という新しい手法を提案する。
提案手法の有効性を,共通データセットと有名データセットの両方で評価した。
論文 参考訳(メタデータ) (2022-05-24T11:29:37Z) - Fashion-Guided Adversarial Attack on Person Segmentation [44.557459027856126]
本稿では、ヒトインスタンスセグメンテーションネットワークを攻撃する最初の逆例に基づく方法を提案する。
ターゲットイメージ内の攻撃可能な領域を自動的に特定する,新たなファッション誘導型攻撃(FashionAdv)フレームワークを提案する。
ファッションスタイルの画像から学習した敵対的なテクスチャを生成し、元の画像の衣服領域にオーバーレイすることで、画像内のすべての人が、人のセグメンテーションネットワークに見えないようにします。
論文 参考訳(メタデータ) (2021-04-17T02:17:33Z) - Memory-Augmented Reinforcement Learning for Image-Goal Navigation [67.3963444878746]
本論文では,クロスエピソードメモリを活用したナビゲーション学習法を提案する。
オーバーフィッティングを避けるため、トレーニング中にRGB入力にデータ拡張を適用することを提案する。
この競合性能はRGB入力のみから得られるが,位置や深度などのセンサは利用できない。
論文 参考訳(メタデータ) (2021-01-13T16:30:20Z) - Combining Semantic Guidance and Deep Reinforcement Learning For
Generating Human Level Paintings [22.889059874754242]
脳卒中に基づく非フォトリアリスティック画像の生成は、コンピュータビジョンコミュニティにおいて重要な問題である。
従来の手法は、前景オブジェクトの位置、規模、正当性にほとんど変化のないデータセットに限られていた。
本研究では,1)前景と背景の筆画の区別を学習するための2段階の塗装手順を備えたセマンティック・ガイダンス・パイプラインを提案する。
論文 参考訳(メタデータ) (2020-11-25T09:00:04Z) - Rethinking of the Image Salient Object Detection: Object-level Semantic
Saliency Re-ranking First, Pixel-wise Saliency Refinement Latter [62.26677215668959]
本稿では,意味的に有意な領域を粗い位置で特定する,軽量で教師付きの深層ネットワークを提案する。
次に,これらセマンティック・サリエント領域の深層モデルを画素ワイド・サリエンシ改善として融合する。
提案手法は単純だが有効であり,本手法は主眼をオブジェクトレベルのセマンティック・リグレード問題とみなすための最初の試みである。
論文 参考訳(メタデータ) (2020-08-10T07:12:43Z) - Exploiting Semantics for Face Image Deblurring [121.44928934662063]
本稿では,深層畳み込みニューラルネットワークによる意味的手がかりを利用して,効果的かつ効率的な顔分解アルゴリズムを提案する。
顔のセマンティックラベルを入力先として組み込んで,顔の局所構造を正規化するための適応的構造損失を提案する。
提案手法は、より正確な顔の特徴と細部を持つシャープ画像を復元する。
論文 参考訳(メタデータ) (2020-01-19T13:06:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。