論文の概要: DeepHist: Differentiable Joint and Color Histogram Layers for
Image-to-Image Translation
- arxiv url: http://arxiv.org/abs/2005.03995v1
- Date: Wed, 6 May 2020 20:07:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-06 06:19:04.165900
- Title: DeepHist: Differentiable Joint and Color Histogram Layers for
Image-to-Image Translation
- Title(参考訳): DeepHist:画像から画像への変換のための関節およびカラーヒストグラム層
- Authors: Mor Avi-Aharon, Assaf Arbelle, and Tammy Riklin Raviv
- Abstract要約: We present the DeepHist - a novel Deep Learning framework for a network by histogram layer。
我々は、入力(ソース)の構造的外観(コンテンツ)と参照の色との出力画像を生成することを目指している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present the DeepHist - a novel Deep Learning framework for augmenting a
network by histogram layers and demonstrate its strength by addressing
image-to-image translation problems. Specifically, given an input image and a
reference color distribution we aim to generate an output image with the
structural appearance (content) of the input (source) yet with the colors of
the reference. The key idea is a new technique for a differentiable
construction of joint and color histograms of the output images. We further
define a color distribution loss based on the Earth Mover's Distance between
the output's and the reference's color histograms and a Mutual Information loss
based on the joint histograms of the source and the output images. Promising
results are shown for the tasks of color transfer, image colorization and edges
$\rightarrow$ photo, where the color distribution of the output image is
controlled. Comparison to Pix2Pix and CyclyGANs are shown.
- Abstract(参考訳): ヒストグラム層によるネットワーク拡張のための新しいDeep LearningフレームワークであるDeepHistを紹介し,画像から画像への変換問題に対処することによって,その強度を実証する。
具体的には、入力画像と基準色分布が与えられた場合、入力(ソース)の構造的外観(コンテンツ)と参照の色との出力画像を生成することを目的としている。
鍵となるアイデアは、出力画像のジョイントとカラーヒストグラムの異なる構成のための新しい技術である。
さらに、ソースと出力画像のジョイントヒストグラムに基づいて、出力と参照の色ヒストグラムとの間の地球移動者の距離と相互情報損失に基づいて色分布損失を定義する。
有望な結果は、カラー転送、画像のカラー化、エッジが$\rightarrow$ photoのタスクに示され、出力画像の色分布が制御される。
Pix2PixとCycyGANとの比較を示す。
関連論文リスト
- SPDGAN: A Generative Adversarial Network based on SPD Manifold Learning
for Automatic Image Colorization [1.220743263007369]
生成逆ネットワーク(SPDGAN)を用いたSymmetric Positive Definite (SPD) Manifold Learningに基づく完全自動カラー化手法を提案する。
本モデルは,2つの識別器とジェネレータの対角ゲームを確立する。その目標は,残差接続により層間の色情報を失うことなく,偽のカラー化画像を生成することである。
論文 参考訳(メタデータ) (2023-12-21T00:52:01Z) - Patch-wise Graph Contrastive Learning for Image Translation [69.85040887753729]
グラフニューラルネットワークを利用して、トポロジを意識した特徴をキャプチャする。
予め訓練されたエンコーダからパッチワイドな類似性に基づいてグラフを構築する。
階層的な意味構造を捉えるために,グラフプーリングを提案する。
論文 参考訳(メタデータ) (2023-12-13T15:45:19Z) - PalGAN: Image Colorization with Palette Generative Adversarial Networks [51.59276436217957]
そこで本研究では,パレット推定とカラーアテンションを統合した新しいGANベースのカラー化手法PalGANを提案する。
PalGANは、定量的評価と視覚比較において最先端の成果を上げ、顕著な多様性、コントラスト、およびエッジ保存の外観を提供する。
論文 参考訳(メタデータ) (2022-10-20T12:28:31Z) - What can we learn about a generated image corrupting its latent
representation? [57.1841740328509]
GANのボトルネックにおける潜在表現に基づいて画像品質を予測できるという仮説を考察する。
遅延表現を雑音で破壊し、複数の出力を生成することでこれを実現できる。
論文 参考訳(メタデータ) (2022-10-12T14:40:32Z) - ParaColorizer: Realistic Image Colorization using Parallel Generative
Networks [1.7778609937758327]
グレースケール画像のカラー化は、情報復元のためのAIの魅力的な応用である。
並列なGANベースのカラー化フレームワークを提案する。
マルチモーダル問題を評価するために一般的に使用される非知覚的評価指標の欠点を示す。
論文 参考訳(メタデータ) (2022-08-17T13:49:44Z) - Semantic-Sparse Colorization Network for Deep Exemplar-based
Colorization [23.301799487207035]
模範的なカラー化アプローチは、対象のグレースケール画像に対して可視色を提供するために、参照画像に依存する。
本研究では,グローバルな画像スタイルとセマンティックな色の両方をグレースケールに転送するセマンティック・スパースカラー化ネットワーク(SSCN)を提案する。
我々のネットワークは、あいまいなマッチング問題を緩和しつつ、グローバルカラーとローカルカラーのバランスを完全にとることができる。
論文 参考訳(メタデータ) (2021-12-02T15:35:10Z) - TransFill: Reference-guided Image Inpainting by Merging Multiple Color
and Spatial Transformations [35.9576572490994]
本稿では,対象画像とシーン内容を共有する別のソース画像を参照して,穴を埋めるマルチホモグラフィ変換核融合法であるtransfillを提案する。
色を調整し、各ホモグラフィー歪んだソースイメージにピクセルレベルのワーピングを適用して、ターゲットとの整合性を高めることを学びます。
本手法は,多種多様なベースラインと色差にまたがる画像対の最先端性能を実現し,ユーザ提供画像対に一般化する。
論文 参考訳(メタデータ) (2021-03-29T22:45:07Z) - HistoGAN: Controlling Colors of GAN-Generated and Real Images via Color
Histograms [52.77252727786091]
HistoGANは、GAN生成画像の色を制御するための色ヒストグラムに基づく方法である。
我々は、HistoGANを拡張して、実画像を再色する方法を示す。
論文 参考訳(メタデータ) (2020-11-23T21:14:19Z) - Deep Line Art Video Colorization with a Few References [49.7139016311314]
そこで本稿では,対象の参照画像と同一のカラースタイルでラインアートビデオを自動的に色付けする深層アーキテクチャを提案する。
本フレームワークはカラートランスフォーメーションネットワークと時間制約ネットワークから構成される。
本モデルでは,少量のサンプルでパラメータを微調整することで,より優れたカラー化を実現することができる。
論文 参考訳(メタデータ) (2020-03-24T06:57:40Z) - Learning to Structure an Image with Few Colors [59.34619548026885]
そこで,カラー量子化ネットワークであるColorCNNを提案する。
1ビットのカラースペース(すなわち2色)だけで、提案されたネットワークはCIFAR10データセット上で82.1%のトップ-1の精度を達成した。
アプリケーションの場合、PNGでエンコードされた場合、提案したカラー量子化は、極低ビットレート方式の他の画像圧縮方法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-03-17T17:56:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。