論文の概要: Conditional Invertible Neural Networks for Diverse Image-to-Image
Translation
- arxiv url: http://arxiv.org/abs/2105.02104v1
- Date: Wed, 5 May 2021 15:10:37 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-06 12:58:00.196155
- Title: Conditional Invertible Neural Networks for Diverse Image-to-Image
Translation
- Title(参考訳): 逆画像変換のための条件付き可逆ニューラルネットワーク
- Authors: Lynton Ardizzone, Jakob Kruse, Carsten L\"uth, Niels Bracher, Carsten
Rother, Ullrich K\"othe
- Abstract要約: 自然画像に対する多様な画像・画像翻訳の課題を解決するために,条件付き不可逆ニューラルネットワーク (cINN) を導入する。
cINNは、純粋に生成したINNモデルと制約のないフィードフォワードネットワークを結合し、条件付け画像を最大情報的特徴に効率的に前処理する。
- 参考スコア(独自算出の注目度): 33.262390365990896
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce a new architecture called a conditional invertible neural
network (cINN), and use it to address the task of diverse image-to-image
translation for natural images. This is not easily possible with existing INN
models due to some fundamental limitations. The cINN combines the purely
generative INN model with an unconstrained feed-forward network, which
efficiently preprocesses the conditioning image into maximally informative
features. All parameters of a cINN are jointly optimized with a stable, maximum
likelihood-based training procedure. Even though INN-based models have received
far less attention in the literature than GANs, they have been shown to have
some remarkable properties absent in GANs, e.g. apparent immunity to mode
collapse. We find that our cINNs leverage these properties for image-to-image
translation, demonstrated on day to night translation and image colorization.
Furthermore, we take advantage of our bidirectional cINN architecture to
explore and manipulate emergent properties of the latent space, such as
changing the image style in an intuitive way.
- Abstract(参考訳): 我々は、条件付き可逆ニューラルネットワーク(cINN)と呼ばれる新しいアーキテクチャを導入し、自然画像に対する多様な画像間翻訳の課題に対処する。
これはいくつかの基本的な制限のため、既存の INN モデルでは容易ではない。
cINNは、純粋に生成したINNモデルと制約のないフィードフォワードネットワークを結合し、条件付け画像を最大情報的特徴に効率的に前処理する。
cINNの全てのパラメータは、安定な最大可能性ベースのトレーニング手順で共同最適化される。
INN ベースのモデルは GAN よりも文学にはあまり注目されていないが、例えば GAN には顕著な性質がないことが示されている。
モード崩壊に対する 明らかな免疫
当社のcinnはこれらの特性を画像から画像への変換に活用し、昼夜の翻訳と画像のカラー化を実証した。
さらに、我々の双方向cINNアーキテクチャを利用して、画像スタイルを直感的に変更するような潜在空間の創発的特性を探索し、操作する。
関連論文リスト
- Recurrent Neural Networks for Still Images [0.0]
我々は、RNNが静止画をシーケンスとして解釈することで効果的に処理できることを論じる。
本稿では、画像などの2次元入力に適した新しいRNN設計と、従来の実装よりもメモリ効率が高いBiDirectional RNN(BiRNN)のカスタムバージョンを紹介する。
論文 参考訳(メタデータ) (2024-09-10T06:07:20Z) - Distance Weighted Trans Network for Image Completion [52.318730994423106]
本稿では,DWT(Distance-based Weighted Transformer)を利用した画像コンポーネント間の関係をよりよく理解するためのアーキテクチャを提案する。
CNNは、粗い事前の局所的なテクスチャ情報を強化するために使用される。
DWTブロックは、特定の粗いテクスチャやコヒーレントな視覚構造を復元するために使用される。
論文 参考訳(メタデータ) (2023-10-11T12:46:11Z) - DeepDC: Deep Distance Correlation as a Perceptual Image Quality
Evaluator [53.57431705309919]
ImageNet Pre-trained Deep Neural Network (DNN)は、効果的な画像品質評価(IQA)モデルを構築するための顕著な転送性を示す。
我々は,事前学習DNN機能のみに基づく新しいフル参照IQA(FR-IQA)モデルを開発した。
5つの標準IQAデータセット上で,提案した品質モデルの優位性を示すため,包括的実験を行った。
論文 参考訳(メタデータ) (2022-11-09T14:57:27Z) - Sobolev Training for Implicit Neural Representations with Approximated
Image Derivatives [12.71676484494428]
ニューラルネットワークによってパラメータ化されたインプシットニューラルネットワーク表現(INR)は、さまざまな種類の信号を表現するための強力なツールとして登場した。
ニューラルネットワークにおける画像値に加えて、画像の微分を符号化するために、ターゲット出力が画像画素であるINRのトレーニングパラダイムを提案する。
トレーニングパラダイムをどのように活用して、典型的なINR(画像回帰と逆レンダリング)の問題を解決するかを示す。
論文 参考訳(メタデータ) (2022-07-21T10:12:41Z) - Neural Implicit Dictionary via Mixture-of-Expert Training [111.08941206369508]
ニューラルインシシット辞書(NID)を学習することで、データとトレーニング効率の両方を達成する汎用INRフレームワークを提案する。
我々のNIDは、所望の関数空間にまたがるように調整された座標ベースのImpworksのグループを組み立てる。
実験の結果,NIDは最大98%の入力データで2次元画像や3次元シーンの再現を2桁高速化できることがわかった。
論文 参考訳(メタデータ) (2022-07-08T05:07:19Z) - Neural Knitworks: Patched Neural Implicit Representation Networks [1.0470286407954037]
画像合成を実現する自然画像の暗黙的表現学習のためのアーキテクチャであるKnitworkを提案する。
私たちの知る限りでは、画像のインペインティング、超解像化、デノイングといった合成作業に適した座標ベースのパッチの実装は、これが初めてである。
その結果, ピクセルではなくパッチを用いた自然な画像のモデリングにより, 忠実度が高い結果が得られた。
論文 参考訳(メタデータ) (2021-09-29T13:10:46Z) - Fully Spiking Variational Autoencoder [66.58310094608002]
スパイキングニューラルネットワーク(SNN)は、超高速で超低エネルギー消費のニューロモルフィックデバイス上で動作することができる。
本研究では,SNNを用いた可変オートエンコーダ(VAE)を構築し,画像生成を実現する。
論文 参考訳(メタデータ) (2021-09-26T06:10:14Z) - The Mind's Eye: Visualizing Class-Agnostic Features of CNNs [92.39082696657874]
本稿では,特定のレイヤの最も情報性の高い特徴を表現した対応する画像を作成することにより,画像の集合を視覚的に解釈する手法を提案する。
本手法では, 生成ネットワークを必要とせず, 元のモデルに変更を加えることなく, デュアルオブジェクトのアクティベーションと距離損失を利用する。
論文 参考訳(メタデータ) (2021-01-29T07:46:39Z) - Learning Deep Interleaved Networks with Asymmetric Co-Attention for
Image Restoration [65.11022516031463]
本稿では,高品質(本社)画像再構成のために,異なる状態の情報をどのように組み合わせるべきかを学習するディープインターリーブドネットワーク(DIN)を提案する。
本稿では,各インターリーブノードにアタッチメントされた非対称なコアテンション(AsyCA)を提案し,その特性依存性をモデル化する。
提案したDINはエンドツーエンドで訓練でき、様々な画像復元タスクに適用できる。
論文 参考訳(メタデータ) (2020-10-29T15:32:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。