論文の概要: HistoGAN: Controlling Colors of GAN-Generated and Real Images via Color
Histograms
- arxiv url: http://arxiv.org/abs/2011.11731v2
- Date: Sat, 27 Mar 2021 02:23:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-22 02:37:54.414365
- Title: HistoGAN: Controlling Colors of GAN-Generated and Real Images via Color
Histograms
- Title(参考訳): HistoGAN:カラーヒストグラムによるGAN生成画像と実画像の色制御
- Authors: Mahmoud Afifi, Marcus A. Brubaker, Michael S. Brown
- Abstract要約: HistoGANは、GAN生成画像の色を制御するための色ヒストグラムに基づく方法である。
我々は、HistoGANを拡張して、実画像を再色する方法を示す。
- 参考スコア(独自算出の注目度): 52.77252727786091
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While generative adversarial networks (GANs) can successfully produce
high-quality images, they can be challenging to control. Simplifying GAN-based
image generation is critical for their adoption in graphic design and artistic
work. This goal has led to significant interest in methods that can intuitively
control the appearance of images generated by GANs. In this paper, we present
HistoGAN, a color histogram-based method for controlling GAN-generated images'
colors. We focus on color histograms as they provide an intuitive way to
describe image color while remaining decoupled from domain-specific semantics.
Specifically, we introduce an effective modification of the recent StyleGAN
architecture to control the colors of GAN-generated images specified by a
target color histogram feature. We then describe how to expand HistoGAN to
recolor real images. For image recoloring, we jointly train an encoder network
along with HistoGAN. The recoloring model, ReHistoGAN, is an unsupervised
approach trained to encourage the network to keep the original image's content
while changing the colors based on the given target histogram. We show that
this histogram-based approach offers a better way to control GAN-generated and
real images' colors while producing more compelling results compared to
existing alternative strategies.
- Abstract(参考訳): GAN(Generative Adversarial Network)は高品質な画像を生成することができるが、制御は困難である。
GANベースの画像生成を単純化することは、グラフィックデザインや芸術作品に採用するために重要である。
この目標はganが生成する画像の外観を直感的に制御できる手法に多大な関心を寄せている。
本稿では,GAN生成画像の色を色ヒストグラムで制御するHistoGANを提案する。
色ヒストグラムは、ドメイン固有の意味論から切り離されたまま画像色を記述する直感的な方法を提供する。
具体的には,最近のstyleganアーキテクチャの効果的な修正を行い,対象色ヒストグラム特徴で特定されたgan生成画像の色を制御する。
次に、HistoGANを拡張して実画像を再色する方法を説明する。
画像の再色には、HistoGANとともにエンコーダネットワークを共同で訓練する。
リカラー化モデルであるReHistoGANは、指定されたターゲットヒストグラムに基づいて色を変更しながら、元の画像の内容を維持するようネットワークに促す、教師なしのアプローチである。
このヒストグラムベースのアプローチは、gan生成および実画像の色を制御するより良い方法を提供し、既存の代替戦略よりも説得力のある結果が得られることを示す。
関連論文リスト
- Transforming Color: A Novel Image Colorization Method [8.041659727964305]
本稿では,色変換器とGANを用いた画像カラー化手法を提案する。
提案手法は,グローバルな情報を取得するためのトランスフォーマーアーキテクチャと,視覚的品質を改善するためのGANフレームワークを統合する。
実験の結果,提案するネットワークは,他の最先端のカラー化技術よりも優れていた。
論文 参考訳(メタデータ) (2024-10-07T07:23:42Z) - Automatic Controllable Colorization via Imagination [55.489416987587305]
本稿では,反復的な編集と修正が可能な自動色付けフレームワークを提案する。
グレースケール画像内のコンテンツを理解することにより、トレーニング済みの画像生成モデルを用いて、同じコンテンツを含む複数の画像を生成する。
これらの画像は、人間の専門家の過程を模倣して、色付けの参考となる。
論文 参考訳(メタデータ) (2024-04-08T16:46:07Z) - SPDGAN: A Generative Adversarial Network based on SPD Manifold Learning
for Automatic Image Colorization [1.220743263007369]
生成逆ネットワーク(SPDGAN)を用いたSymmetric Positive Definite (SPD) Manifold Learningに基づく完全自動カラー化手法を提案する。
本モデルは,2つの識別器とジェネレータの対角ゲームを確立する。その目標は,残差接続により層間の色情報を失うことなく,偽のカラー化画像を生成することである。
論文 参考訳(メタデータ) (2023-12-21T00:52:01Z) - PalGAN: Image Colorization with Palette Generative Adversarial Networks [51.59276436217957]
そこで本研究では,パレット推定とカラーアテンションを統合した新しいGANベースのカラー化手法PalGANを提案する。
PalGANは、定量的評価と視覚比較において最先端の成果を上げ、顕著な多様性、コントラスト、およびエッジ保存の外観を提供する。
論文 参考訳(メタデータ) (2022-10-20T12:28:31Z) - Towards Vivid and Diverse Image Colorization with Generative Color Prior [17.087464490162073]
最近のディープラーニングベースの手法は、画像のカラー化を低コストで行うことができる。
我々は,事前学習されたGAN(Generative Adversarial Networks)にカプセル化されている,豊かで多様な色を活かして鮮やかな色を復元することを目的としている。
先進的なデザインと繊細なデザインの強力な生成色のおかげで、我々の手法は1つの前進パスで鮮やかな色を作り出すことができた。
論文 参考訳(メタデータ) (2021-08-19T17:49:21Z) - SCGAN: Saliency Map-guided Colorization with Generative Adversarial
Network [16.906813829260553]
本稿では,SCGAN(Generative Adversarial Network)フレームワークによる完全自動サリエンシマップ誘導色付けを提案する。
これは、意味的混乱と色出血を最小限に抑えるために、着色と塩分濃度マップを共同で予測する。
実験結果から,SCGANは最先端技術よりも,より合理的なカラー化画像を生成することができることがわかった。
論文 参考訳(メタデータ) (2020-11-23T13:06:54Z) - CA-GAN: Weakly Supervised Color Aware GAN for Controllable Makeup
Transfer [10.086015702323971]
色制御可能な化粧スタイル合成の学習を目的とした化粧スタイル伝達タスクの新しい定式化を提案する。
画像中の特定の物体の色を任意のターゲット色に修正する学習モデルであるCA-GANを紹介する。
メイクスタイルの転写と色制御性能の定量的解析を初めて行った。
論文 参考訳(メタデータ) (2020-08-24T10:11:17Z) - Exploiting Deep Generative Prior for Versatile Image Restoration and
Manipulation [181.08127307338654]
本研究は, 大規模自然画像に基づいて学習したGAN(Generative Adversarial Network)により, 得られた画像の有効利用方法を示す。
深層生成前駆体(DGP)は、色、パッチ、解像度、様々な劣化した画像の欠落したセマンティクスを復元するための説得力のある結果を提供する。
論文 参考訳(メタデータ) (2020-03-30T17:45:07Z) - Deep Line Art Video Colorization with a Few References [49.7139016311314]
そこで本稿では,対象の参照画像と同一のカラースタイルでラインアートビデオを自動的に色付けする深層アーキテクチャを提案する。
本フレームワークはカラートランスフォーメーションネットワークと時間制約ネットワークから構成される。
本モデルでは,少量のサンプルでパラメータを微調整することで,より優れたカラー化を実現することができる。
論文 参考訳(メタデータ) (2020-03-24T06:57:40Z) - Learning to Structure an Image with Few Colors [59.34619548026885]
そこで,カラー量子化ネットワークであるColorCNNを提案する。
1ビットのカラースペース(すなわち2色)だけで、提案されたネットワークはCIFAR10データセット上で82.1%のトップ-1の精度を達成した。
アプリケーションの場合、PNGでエンコードされた場合、提案したカラー量子化は、極低ビットレート方式の他の画像圧縮方法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-03-17T17:56:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。