論文の概要: FunkNN: Neural Interpolation for Functional Generation
- arxiv url: http://arxiv.org/abs/2212.14042v1
- Date: Tue, 20 Dec 2022 16:37:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-09 07:25:42.086569
- Title: FunkNN: Neural Interpolation for Functional Generation
- Title(参考訳): FunkNN: 機能生成のための神経補間
- Authors: AmirEhsan Khorashadizadeh, Anadi Chaman, Valentin Debarnot, Ivan
Dokmani\'c
- Abstract要約: FunkNNは任意の座標で連続した画像を再構成することを学び、任意の画像データセットに適用できる新しい畳み込みネットワークである。
FunkNNは、高品質な連続画像を生成し、パッチベースの設計により、配信性能が優れていることを示す。
- 参考スコア(独自算出の注目度): 23.964801524703052
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Can we build continuous generative models which generalize across scales, can
be evaluated at any coordinate, admit calculation of exact derivatives, and are
conceptually simple? Existing MLP-based architectures generate worse samples
than the grid-based generators with favorable convolutional inductive biases.
Models that focus on generating images at different scales do better, but
employ complex architectures not designed for continuous evaluation of images
and derivatives. We take a signal-processing perspective and treat continuous
image generation as interpolation from samples. Indeed, correctly sampled
discrete images contain all information about the low spatial frequencies. The
question is then how to extrapolate the spectrum in a data-driven way while
meeting the above design criteria. Our answer is FunkNN -- a new convolutional
network which learns how to reconstruct continuous images at arbitrary
coordinates and can be applied to any image dataset. Combined with a discrete
generative model it becomes a functional generator which can act as a prior in
continuous ill-posed inverse problems. We show that FunkNN generates
high-quality continuous images and exhibits strong out-of-distribution
performance thanks to its patch-based design. We further showcase its
performance in several stylized inverse problems with exact spatial
derivatives.
- Abstract(参考訳): スケールをまたいで一般化し、任意の座標で評価し、正確な微分の計算を認め、概念的に単純である連続生成モデルを構築することができるか?
既存のMLPベースのアーキテクチャは、良好な畳み込み誘導バイアスを持つグリッドベースのジェネレータよりも悪いサンプルを生成する。
異なるスケールで画像を生成することに焦点を当てたモデルの方が優れているが、画像やデリバティブの継続的な評価のために設計されていない複雑なアーキテクチャを採用する。
信号処理の観点から、サンプルからの補間として連続画像生成を扱う。
実際、正しくサンプリングされた離散画像は、低空間周波数に関する全ての情報を含んでいる。
問題は、上記の設計基準を満たしながら、データ駆動方式でスペクトルを外挿する方法である。
われわれの答えはfunknn ― 任意の座標で連続画像を再構築する方法を学び、任意の画像データセットに適用できる新しい畳み込みネットワーク。
離散生成モデルと組み合わさって、連続的な不正な逆問題に先行して作用する関数生成器となる。
funknnは高品質な連続画像を生成し,パッチベースの設計により,高い分散性能を示す。
さらに,空間的微分を持つ数種類のスタイリッシュな逆問題において,その性能を示す。
関連論文リスト
- Generalized Consistency Trajectory Models for Image Manipulation [59.576781858809355]
拡散モデル(DM)は、画像編集や復元などの応用と同様に、無条件生成において優れている。
本研究の目的は、一般化されたCTM(GCTM)を提案することによって、整合性軌道モデル(CTM)の完全なポテンシャルを解放することである。
本稿では,GCTMの設計空間について論じ,画像から画像への変換,復元,編集など,様々な画像操作タスクにおいて有効性を示す。
論文 参考訳(メタデータ) (2024-03-19T07:24:54Z) - Deep Equilibrium Diffusion Restoration with Parallel Sampling [120.15039525209106]
拡散モデルに基づく画像復元(IR)は、拡散モデルを用いて劣化した画像から高品質な(本社)画像を復元し、有望な性能を達成することを目的としている。
既存のほとんどの手法では、HQイメージをステップバイステップで復元するために長いシリアルサンプリングチェーンが必要であるため、高価なサンプリング時間と高い計算コストがかかる。
本研究では,拡散モデルに基づくIRモデルを異なる視点,すなわちDeqIRと呼ばれるDeQ(Deep equilibrium)固定点系で再考することを目的とする。
論文 参考訳(メタデータ) (2023-11-20T08:27:56Z) - Distance Weighted Trans Network for Image Completion [52.318730994423106]
本稿では,DWT(Distance-based Weighted Transformer)を利用した画像コンポーネント間の関係をよりよく理解するためのアーキテクチャを提案する。
CNNは、粗い事前の局所的なテクスチャ情報を強化するために使用される。
DWTブロックは、特定の粗いテクスチャやコヒーレントな視覚構造を復元するために使用される。
論文 参考訳(メタデータ) (2023-10-11T12:46:11Z) - VTAE: Variational Transformer Autoencoder with Manifolds Learning [144.0546653941249]
深層生成モデルは、多くの潜伏変数を通して非線形データ分布の学習に成功している。
ジェネレータの非線形性は、潜在空間がデータ空間の不満足な射影を示し、表現学習が不十分になることを意味する。
本研究では、測地学と正確な計算により、深部生成モデルの性能を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2023-04-03T13:13:19Z) - Score-based Diffusion Models in Function Space [140.792362459734]
拡散モデルは、最近、生成モデリングの強力なフレームワークとして登場した。
本稿では,関数空間における拡散モデルをトレーニングするためのDDO(Denoising Diffusion Operators)という,数学的に厳密なフレームワークを提案する。
データ解像度に依存しない固定コストで、対応する離散化アルゴリズムが正確なサンプルを生成することを示す。
論文 参考訳(メタデータ) (2023-02-14T23:50:53Z) - Using Intermediate Forward Iterates for Intermediate Generator
Optimization [14.987013151525368]
中間ジェネレータ最適化は、生成タスクのための任意の標準オートエンコーダパイプラインに組み込むことができる。
IGOの2つの密集予測タスク(viz.)、画像外挿、点雲デノイング(denoising)に対する応用を示す。
論文 参考訳(メタデータ) (2023-02-05T08:46:15Z) - NeurInt : Learning to Interpolate through Neural ODEs [18.104328632453676]
本稿では,2つの画像間の軌跡分布を学習する新しい生成モデルを提案する。
提案手法の有効性を示すとともに,画像の品質向上と,実画像と対象画像の任意のペアに対して,スムーズな軌道上の多様な分布を学習する能力を示す。
論文 参考訳(メタデータ) (2021-11-07T16:31:18Z) - Score-based diffusion models for accelerated MRI [35.3148116010546]
本研究では,画像中の逆問題を容易に解けるような条件分布からデータをサンプリングする方法を提案する。
我々のモデルは、訓練のためにのみ等級画像を必要とするが、複雑な値のデータを再構成することができ、さらに並列画像まで拡張できる。
論文 参考訳(メタデータ) (2021-10-08T08:42:03Z) - Deep Neural Networks are Surprisingly Reversible: A Baseline for
Zero-Shot Inversion [90.65667807498086]
本稿では、内部表現のみを与えられたトレーニングモデルへの入力を復元するゼロショット直接モデル逆変換フレームワークを提案する。
ImageNetの最新の分類モデルでは、20層以上の表現から元の224x224px画像を近似的に復元できることを実証的に示す。
論文 参考訳(メタデータ) (2021-07-13T18:01:43Z) - Image Generators with Conditionally-Independent Pixel Synthesis [10.792933031825527]
画像生成のための新しいアーキテクチャを提案し,各画素の色値を独立に計算する。
合成中は、空間的畳み込みや、画素間で情報を伝達する同様の操作は関与しない。
本研究では, 逆方向の学習において, このようなジェネレータのモデリング能力を解析し, 新しいジェネレータを観察して, 最先端の畳み込みジェネレータに類似した生成品質を実現する。
論文 参考訳(メタデータ) (2020-11-27T15:16:11Z) - AE-OT-GAN: Training GANs from data specific latent distribution [21.48007565143911]
GAN(Generative Adversarial Network)は、現実的かつクリップな画像を生成するモデルである。
GANはしばしばモード崩壊問題に遭遇し、連続DNNを用いて本質的不連続分布変換マップを近似することから訓練に固執する。
最近提案されたAE-OTモデルでは、不連続なdistribu-tion変換マップを明示的に計算することで、この問題に対処している。
本稿では,AE-OT-GANモデルを用いて,高品質な画像を生成すると同時に,モード崩壊/混合問題を克服する。
論文 参考訳(メタデータ) (2020-01-11T01:18:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。