論文の概要: GANiry: Bald-to-Hairy Translation Using CycleGAN
- arxiv url: http://arxiv.org/abs/2109.13126v1
- Date: Mon, 27 Sep 2021 15:39:27 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-28 15:47:30.131369
- Title: GANiry: Bald-to-Hairy Translation Using CycleGAN
- Title(参考訳): GANiry:CycleGANを用いたBald-to-Hairy翻訳
- Authors: Fidan Samet and Oguz Bakir
- Abstract要約: 本稿では,CycleGANを用いたハゲマンツーヘアマン翻訳というコンピュータビジョンコースプロジェクトについて紹介する。
CycleGANアーキテクチャの上に、より現実的な結果を得るために知覚的損失を利用する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This work presents our computer vision course project called bald
men-to-hairy men translation using CycleGAN. On top of CycleGAN architecture,
we utilize perceptual loss in order to achieve more realistic results. We also
integrate conditional constrains to obtain different stylized and colored hairs
on bald men. We conducted extensive experiments and present qualitative results
in this paper. Our code and models are available at
https://github.com/fidansamet/GANiry.
- Abstract(参考訳): 本稿では,CycleGANを用いたハゲマンツーヘアマン翻訳というコンピュータビジョンコースプロジェクトについて紹介する。
CycleGANアーキテクチャの上に、より現実的な結果を得るために知覚損失を利用する。
また, 条件制約を組み合わさって, ハゲ男に異なるスタイルの髪と着色髪を得る。
本稿では,広範囲な実験を行い,定性的な結果を得た。
私たちのコードとモデルはhttps://github.com/fidansamet/ganiryで利用可能です。
関連論文リスト
- HAAR: Text-Conditioned Generative Model of 3D Strand-based Human
Hairstyles [85.12672855502517]
そこで本研究では,3次元ヘアスタイルのための新しいストランドベース生成モデルであるHAARについて紹介する。
テキスト入力に基づいて、HAARは現代のコンピュータグラフィックスエンジンで生産レベルの資産として使用できる3Dヘアスタイルを生成する。
論文 参考訳(メタデータ) (2023-12-18T19:19:32Z) - Transforming Visual Scene Graphs to Image Captions [69.13204024990672]
我々は、Scene Graphs (TSG) をより説明的なキャプションに変換することを提案する。
TSGでは、シーングラフの埋め込みのためのグラフニューラルネットワーク(GNN)の設計にマルチヘッドアテンション(MHA)を適用している。
TSGでは、各専門家はMHAに基づいてグラフ埋め込みを識別し、異なる種類の単語を生成する。
論文 参考訳(メタデータ) (2023-05-03T15:18:37Z) - Gradient Gating for Deep Multi-Rate Learning on Graphs [62.25886489571097]
グラフニューラルネットワーク(GNN)の性能向上のための新しいフレームワークであるグラディエントゲーティング(G$2$)を提案する。
我々のフレームワークは,GNN層の出力を,基盤となるグラフのノード間でのメッセージパッシング情報のマルチレートフローのメカニズムでゲーティングすることに基づいている。
論文 参考訳(メタデータ) (2022-10-02T13:19:48Z) - HVH: Learning a Hybrid Neural Volumetric Representation for Dynamic Hair
Performance Capture [11.645769995924548]
ライフスタイルの毛髪を捕えることは、その微細な幾何学的構造、複雑な物理的相互作用、そして非自明な視覚的外観のために特に困難である。
本稿では,数千のプリミティブで構成された斬新な容積表現を用いる。
提案手法は,記録されたマルチビューシーケンスのリアルなレンダリングを生成するだけでなく,新しい制御信号を提供することで,新しいヘア構成のレンダリングを生成する。
論文 参考訳(メタデータ) (2021-12-13T18:57:50Z) - Vit-GAN: Image-to-image Translation with Vision Transformes and
Conditional GANS [0.0]
本稿では,画像から画像への変換処理のほとんどを可能にする汎用アーキテクチャであるVit-Ganを開発した。
得られた結果は、一般的に使用されるアーキテクチャよりも現実的であることが観察された。
論文 参考訳(メタデータ) (2021-10-11T18:09:16Z) - SketchHairSalon: Deep Sketch-based Hair Image Synthesis [36.79413744626908]
所望の毛髪の構造と外観を表現したフリーハンドスケッチから直接リアルな毛髪画像を生成するための枠組みを提案する。
トレーニングされたネットワークと2つのスケッチ補完戦略に基づいて、初心者でも視覚的に喜ぶヘアイメージをデザインできる直感的なインターフェースを構築した。
論文 参考訳(メタデータ) (2021-09-16T11:14:01Z) - toon2real: Translating Cartoon Images to Realistic Images [1.4419517737536707]
このタスクを実行するためにいくつかの最先端モデルを適用するが、高品質な翻訳には失敗する。
本稿では,漫画領域からフォトリアリスティック領域への画像変換のためのCycleGANモデルに基づく手法を提案する。
実験の結果を実証し,提案手法が他の最先端技術であるUNITと比較して最も低いFrechet Inception Distanceスコアと優れた結果を得たことを示す。
論文 参考訳(メタデータ) (2021-02-01T20:22:05Z) - MichiGAN: Multi-Input-Conditioned Hair Image Generation for Portrait
Editing [122.82964863607938]
MichiGANはインタラクティブな顔料の毛髪操作のための条件付き画像生成手法である。
我々は, 形状, 構造, 外観, 背景など, 主要毛髪の視覚的要因のすべてをユーザコントロールする。
また,直感的かつ高レベルなユーザ入力を投影することで,髪の直感的な操作を可能にするインタラクティブな肖像画毛髪編集システムを構築した。
論文 参考訳(メタデータ) (2020-10-30T17:59:10Z) - An Encoder-Decoder CNN for Hair Removal in Dermoscopic Images [0.0]
皮膚内視鏡画像における毛髪除去のための畳み込みニューラルネットワークに基づくモデルを提案する。
既知のデータセットから抽出した無毛画像中の皮膚毛の存在をシミュレートする。
論文 参考訳(メタデータ) (2020-10-10T14:28:10Z) - A U-Net Based Discriminator for Generative Adversarial Networks [86.67102929147592]
GAN(Generative Adversarial Network)のための代替U-Netベースの識別器アーキテクチャを提案する。
提案アーキテクチャにより,合成画像のグローバルコヒーレンスを維持しつつ,画素単位の詳細なフィードバックを生成元に提供することができる。
斬新な判別器は、標準分布と画像品質の指標の観点から、最先端の技術を向上する。
論文 参考訳(メタデータ) (2020-02-28T11:16:54Z) - Supervised and Unsupervised Learning of Parameterized Color Enhancement [112.88623543850224]
我々は、教師なし学習と教師なし学習の両方を用いて、画像翻訳タスクとしての色強調の問題に取り組む。
我々は,MIT-Adobe FiveKベンチマークにおいて,教師付き(ペアデータ)と教師なし(ペアデータ)の2つの画像強調手法と比較して,最先端の結果が得られた。
20世紀初頭の写真や暗黒ビデオフレームに応用することで,本手法の一般化能力を示す。
論文 参考訳(メタデータ) (2019-12-30T13:57:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。