論文の概要: H-GAN: the power of GANs in your Hands
- arxiv url: http://arxiv.org/abs/2103.15017v1
- Date: Sat, 27 Mar 2021 23:46:27 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-01 09:36:36.668276
- Title: H-GAN: the power of GANs in your Hands
- Title(参考訳): H-GAN:手にあるガンのパワー
- Authors: Sergiu Oprea, Giorgos Karvounas, Pablo Martinez-Gonzalez, Nikolaos
Kyriazis, Sergio Orts-Escolano, Iason Oikonomidis, Alberto Garcia-Garcia,
Aggeliki Tsoli, Jose Garcia-Rodriguez, Antonis Argyros
- Abstract要約: HandGAN(H-GAN)は、マルチスケールの知覚識別器を実装するサイクル一貫性のある対比学習手法である。
手の合成イメージを実際のドメインに翻訳するように設計されています。
- 参考スコア(独自算出の注目度): 5.969294170305916
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present HandGAN (H-GAN), a cycle-consistent adversarial learning approach
implementing multi-scale perceptual discriminators. It is designed to translate
synthetic images of hands to the real domain. Synthetic hands provide complete
ground-truth annotations, yet they are not representative of the target
distribution of real-world data. We strive to provide the perfect blend of a
realistic hand appearance with synthetic annotations. Relying on image-to-image
translation, we improve the appearance of synthetic hands to approximate the
statistical distribution underlying a collection of real images of hands. H-GAN
tackles not only cross-domain tone mapping but also structural differences in
localized areas such as shading discontinuities. Results are evaluated on a
qualitative and quantitative basis improving previous works. Furthermore, we
successfully apply the generated images to the hand classification task.
- Abstract(参考訳): 我々は,マルチスケールの知覚識別器を実装するサイクル一貫性のある逆学習手法であるHandGAN(H-GAN)を提案する。
手の合成画像を実際の領域に翻訳するように設計されている。
合成ハンドは、完全な地上アノテーションを提供するが、実際のデータのターゲット分布を表すものではない。
我々は、リアルな手の外観と合成アノテーションの完璧なブレンドを提供しようとしている。
画像から画像への翻訳を頼りに, 合成手の出現を改良し, 実画像の収集に基づく統計的分布を近似する。
H-GANは、クロスドメイントーンマッピングだけでなく、シェーディング不連続性のような局所的な領域における構造的差異に取り組む。
結果は, 従来よりも質的かつ定量的に評価された。
さらに, 生成した画像を手指分類タスクに適用することに成功した。
関連論文リスト
- StegoGAN: Leveraging Steganography for Non-Bijective Image-to-Image Translation [18.213286385769525]
CycleGANベースの手法は、生成した画像のミスマッチした情報を隠して、サイクル一貫性の目的をバイパスすることが知られている。
本稿では,ステガノグラフィーを利用した新しいモデルであるStegoGANを紹介した。
我々のアプローチは、追加の後処理や監督を必要とすることなく、翻訳画像のセマンティック一貫性を高める。
論文 参考訳(メタデータ) (2024-03-29T12:23:58Z) - HandBooster: Boosting 3D Hand-Mesh Reconstruction by Conditional Synthesis and Sampling of Hand-Object Interactions [68.28684509445529]
HandBoosterは、データの多様性を向上し、3Dハンド・ミーシュ・リコンストラクションのパフォーマンスを向上する新しいアプローチである。
まず,多様な手やポーズ,ビュー,背景を持つリアルな画像を生成するために,拡散モデルを誘導する多目的コンテンツ認識条件を構築した。
そこで我々は,我々の類似性を考慮した分布サンプリング戦略に基づく新しい条件作成手法を設計し,トレーニングセットとは異なる,斬新で現実的なインタラクションのポーズを意図的に見つける。
論文 参考訳(メタデータ) (2024-03-27T13:56:08Z) - HanDiffuser: Text-to-Image Generation With Realistic Hand Appearances [34.50137847908887]
テキスト・ツー・イメージ生成モデルは高品質な人間を生み出すことができるが、現実主義は手を生成する際に失われる。
一般的なアーティファクトには、不規則な手ポーズ、形、不正確な指の数、物理的に不明瞭な指の向きなどがある。
そこで我々はHanDiffuserという新しい拡散型アーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-03-04T03:00:22Z) - Unsupervised Synthetic Image Refinement via Contrastive Learning and
Consistent Semantic-Structural Constraints [32.07631215590755]
コントラスト学習(CL)は、相関したパッチをまとめて、非相関的なパッチを分離するのに成功している。
本研究では,合成画像と精細画像間の意味的・構造的整合性を利用して,意味的歪みを低減するためにCLを採用する。
論文 参考訳(メタデータ) (2023-04-25T05:55:28Z) - HandNeRF: Neural Radiance Fields for Animatable Interacting Hands [122.32855646927013]
神経放射場(NeRF)を用いて手の動きを正確に再現する新しい枠組みを提案する。
我々は,提案するHandNeRFのメリットを検証するための広範囲な実験を行い,その成果を報告する。
論文 参考訳(メタデータ) (2023-03-24T06:19:19Z) - You Only Need Adversarial Supervision for Semantic Image Synthesis [84.83711654797342]
我々は,高品質な結果を得るためには敵対的監督のみを必要とする,新しい簡易ganモデルを提案する。
本モデルによって合成された画像はより多様であり,実画像の色やテクスチャに密接に従っている。
論文 参考訳(メタデータ) (2020-12-08T23:00:48Z) - Pixel-based Facial Expression Synthesis [1.7056768055368383]
本稿では,各出力画素が1つの入力画素のみを観測する,画素ベースの表情合成手法を提案する。
提案するモデルは2桁の規模で,リソース制約のあるデバイスへの展開に適している。
論文 参考訳(メタデータ) (2020-10-27T16:00:45Z) - InterFaceGAN: Interpreting the Disentangled Face Representation Learned
by GANs [73.27299786083424]
我々は、最先端のGANモデルによって学習された不整合顔表現を解釈するInterFaceGANというフレームワークを提案する。
まず、GANは潜在空間の線型部分空間で様々な意味学を学ぶ。
次に、異なる意味論間の相関関係について詳細な研究を行い、部分空間射影を通してそれらをよりよく解離させる。
論文 参考訳(メタデータ) (2020-05-18T18:01:22Z) - Deep CG2Real: Synthetic-to-Real Translation via Image Disentanglement [78.58603635621591]
画像空間における未ペアの合成-現実翻訳ネットワークの訓練は、厳しい制約下にある。
画像の非交叉シェーディング層とアルベド層に作用する半教師付きアプローチを提案する。
私たちの2段階のパイプラインはまず、物理ベースのレンダリングをターゲットとして、教師付き方法で正確なシェーディングを予測することを学習します。
論文 参考訳(メタデータ) (2020-03-27T21:45:41Z) - Image Fine-grained Inpainting [89.17316318927621]
拡張畳み込みの密結合を利用してより大きく効果的な受容場を得る一段階モデルを提案する。
この効率的なジェネレータをよく訓練するために、頻繁に使用されるVGG特徴整合損失を除いて、新しい自己誘導回帰損失を設計する。
また、局所的・グローバルな分枝を持つ識別器を用いて、局所的・グローバルな内容の整合性を確保する。
論文 参考訳(メタデータ) (2020-02-07T03:45:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。