論文の概要: Raw Bayer Pattern Image Synthesis with Conditional GAN
- arxiv url: http://arxiv.org/abs/2110.12823v1
- Date: Mon, 25 Oct 2021 11:40:36 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-26 17:43:00.848555
- Title: Raw Bayer Pattern Image Synthesis with Conditional GAN
- Title(参考訳): 条件付きGANを用いたRaw Bayerパターン画像合成
- Authors: Zhou Wei
- Abstract要約: 本稿では,GAN(Generative Adversarial Network)によるベイアパターン画像生成手法を提案する。
変換を復調として設定することで、ベイアパターン画像を生成することができる。
実験の結果,提案手法により生成した画像は,FIDスコア,PSNR,SSIMにおいて元のPix2PixHDモデルより優れていた。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we propose a method to generate Bayer pattern images by
Generative adversarial network (GANs). It is shown theoretically that using the
transformed data in GANs training is able to improve the generator learning of
the original data distribution, owing to the invariant of Jensen Shannon(JS)
divergence between two distributions under invertible and differentiable
transformation. The Bayer pattern images can be generated by configuring the
transformation as demosaicing, by converting the existing standard color
datasets to Bayer domain, the proposed method is promising in the applications
such as to find the optimal ISP configuration for computer vision tasks, in the
in sensor or near sensor computing, even in photography. Experiments show that
the images generated by our proposed method outperform the original Pix2PixHD
model in FID score, PSNR, and SSIM, and the training process is more stable.
For the situation similar to in sensor or near sensor computing for object
detection, by using our proposed method, the model performance can be improved
without the modification to the image sensor.
- Abstract(参考訳): 本稿では,gans(generative adversarial network)を用いてbayerパターン画像を生成する手法を提案する。
GANsトレーニングにおける変換データの使用は、可逆変換と微分変換の2つの分布間のJensen Shannon(JS)の不変性により、元のデータ分布のジェネレータ学習を改善することができることが理論的に示されている。
既存の標準カラーデータセットをbayerドメインに変換することにより、変換をデモサイシングとして構成することで、ベイアーパターン画像を生成することができ、提案手法は、写真においても、inセンサまたは近接センサーコンピューティングにおいて、コンピュータビジョンタスクの最適なisp構成を見つけるようなアプリケーションにおいて有望である。
実験の結果,提案手法により生成された画像は,FIDスコア,PSNR,SSIMにおいて元のPix2PixHDモデルより優れ,トレーニングプロセスはより安定していることがわかった。
物体検出のためのセンサや近接センサに類似した状況では,提案手法を用いることで,画像センサの変更を伴わずにモデル性能を向上させることができる。
関連論文リスト
- Siamese Meets Diffusion Network: SMDNet for Enhanced Change Detection in
High-Resolution RS Imagery [7.767708235606408]
我々は,新しいネットワークであるSiamese-U2Net Feature Differential Meets Network (SMDNet)を提案する。
このネットワークは、画像エッジ変化検出の精度を向上させるために、Siam-U2Net Feature Differential (SU-FDE)とデノイング拡散暗黙モデルを組み合わせる。
特徴抽出モデルと拡散モデルを組み合わせることで,リモートセンシング画像における変化検出の有効性を示す。
論文 参考訳(メタデータ) (2024-01-17T16:48:55Z) - ESVAE: An Efficient Spiking Variational Autoencoder with Reparameterizable Poisson Spiking Sampling [20.36674120648714]
可変オートエンコーダ(VAE)は、最も人気のある画像生成モデルの一つである。
現在のVAE法は、精巧な自己回帰ネットワークによって潜在空間を暗黙的に構築する。
本稿では,解釈可能な潜在空間分布を構成する効率的なスパイキング変分オートエンコーダ(ESVAE)を提案する。
論文 参考訳(メタデータ) (2023-10-23T12:01:10Z) - In-Domain GAN Inversion for Faithful Reconstruction and Editability [132.68255553099834]
ドメイン誘導型ドメイン正規化とエンコーダで構成されたドメイン内GANインバージョンを提案し、事前学習されたGANモデルのネイティブ潜在空間における反転コードを正規化する。
エンコーダ構造,開始反転点,および逆パラメータ空間の効果を総合的に解析し,再構成品質と編集特性とのトレードオフを観察する。
論文 参考訳(メタデータ) (2023-09-25T08:42:06Z) - Semantic Image Synthesis via Diffusion Models [159.4285444680301]
Denoising Diffusion Probabilistic Models (DDPM) は様々な画像生成タスクにおいて顕著な成功を収めた。
セマンティック画像合成に関する最近の研究は、主に「GAN(Generative Adversarial Nets)」に追従している。
論文 参考訳(メタデータ) (2022-06-30T18:31:51Z) - DDPM-CD: Denoising Diffusion Probabilistic Models as Feature Extractors
for Change Detection [31.125812018296127]
Deno Diffusion Probabilistic Model (DDPM) の事前学習による変化検出のための新しいアプローチを提案する。
DDPMは、訓練画像を徐々にマルコフ連鎖を用いてガウス分布に変換することにより、トレーニングデータ分布を学習する。
推論(サンプリング)中に、トレーニング分布に近い多様なサンプルセットを生成することができる。
LEVIR-CD, WHU-CD, DSIFN-CD, CDDデータセットを用いて行った実験により,提案手法は既存の変化検出法よりもF1スコアで大幅に優れており, I。
論文 参考訳(メタデータ) (2022-06-23T17:58:29Z) - Learning Generative Vision Transformer with Energy-Based Latent Space
for Saliency Prediction [51.80191416661064]
本稿では,有意な物体検出に先立って,潜伏変数を持つ新しい視覚変換器を提案する。
ビジョントランスネットワークとエネルギーベース先行モデルの両方は、マルコフ連鎖モンテカルロによる最大推定を通じて共同で訓練される。
生成型視覚変換器により、画像から容易に画素単位の不確実性マップを得ることができ、画像から唾液濃度を予測するためのモデル信頼度を示す。
論文 参考訳(メタデータ) (2021-12-27T06:04:33Z) - Visual Saliency Transformer [127.33678448761599]
RGBとRGB-Dの液状物体検出(SOD)のための、純粋な変圧器であるVST(Visual Saliency Transformer)に基づく新しい統一モデルを開発しました。
イメージパッチを入力として取り、トランスフォーマーを利用してイメージパッチ間のグローバルコンテキストを伝搬する。
実験結果から,RGBとRGB-D SODのベンチマークデータセットにおいて,本モデルが既存の最新結果を上回っていることが示された。
論文 参考訳(メタデータ) (2021-04-25T08:24:06Z) - Remote sensing image fusion based on Bayesian GAN [9.852262451235472]
PANとMSの画像を入力として使用する2ストリームジェネレータネットワークを構築し,特徴抽出,特徴融合,画像再構成という3つの部分から構成される。
我々はマルコフ判別器を活用し、融合画像の再構成能力を高めることにより、結果画像がより詳細な情報を保持することができる。
QuickBirdとWorldViewのデータセット実験により,本論文で提案したモデルがPANとMSの画像を効果的に融合できることが示されている。
論文 参考訳(メタデータ) (2020-09-20T16:15:51Z) - Uncertainty Inspired RGB-D Saliency Detection [70.50583438784571]
本稿では,データラベリングプロセスから学習することで,RGB-D値検出の不確実性を利用した最初のフレームワークを提案する。
そこで本研究では,確率的RGB-Dサリエンシ検出を実現するために,サリエンシデータラベリングプロセスにインスパイアされた生成アーキテクチャを提案する。
6つの挑戦的RGB-Dベンチマークデータセットの結果から,サリエンシマップの分布を学習する際のアプローチの優れた性能が示された。
論文 参考訳(メタデータ) (2020-09-07T13:01:45Z) - RAIN: A Simple Approach for Robust and Accurate Image Classification
Networks [156.09526491791772]
既存の敵防衛手法の大部分は、予測精度を犠牲にして堅牢性を実現することが示されている。
本稿では,ロバストおよび高精度画像分類N(RAIN)と呼ぶ新しい前処理フレームワークを提案する。
RAINは入力に対してランダム化を適用して、モデルフォワード予測パスと後方勾配パスの関係を壊し、モデルロバスト性を改善する。
STL10 と ImageNet のデータセットを用いて、様々な種類の敵攻撃に対する RAIN の有効性を検証する。
論文 参考訳(メタデータ) (2020-04-24T02:03:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。