論文の概要: Learning multi-scale local conditional probability models of images
- arxiv url: http://arxiv.org/abs/2303.02984v1
- Date: Mon, 6 Mar 2023 09:23:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-07 16:31:58.754358
- Title: Learning multi-scale local conditional probability models of images
- Title(参考訳): 画像のマルチスケール局所条件確率モデルの学習
- Authors: Zahra Kadkhodaie, Florentin Guth, St\'ephane Mallat, and Eero P
Simoncelli
- Abstract要約: ディープニューラルネットワークは、最近のスコアベース拡散法で得られた高品質な世代によって証明されたように、画像の強力な事前確率モデルを学ぶことができる。
しかし、これらのネットワークが複雑なグローバルな統計構造をとらえる手段は、明らかに次元の呪いに苦しむことなく、謎のままだ。
我々は拡散法を多スケール分解に取り入れ、粗大係数に条件付きウェーブレット係数の定常局所マルコフモデルを仮定することにより次元性を減少させる。
- 参考スコア(独自算出の注目度): 7.07848787073901
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Deep neural networks can learn powerful prior probability models for images,
as evidenced by the high-quality generations obtained with recent score-based
diffusion methods. But the means by which these networks capture complex global
statistical structure, apparently without suffering from the curse of
dimensionality, remain a mystery. To study this, we incorporate diffusion
methods into a multi-scale decomposition, reducing dimensionality by assuming a
stationary local Markov model for wavelet coefficients conditioned on
coarser-scale coefficients. We instantiate this model using convolutional
neural networks (CNNs) with local receptive fields, which enforce both the
stationarity and Markov properties. Global structures are captured using a CNN
with receptive fields covering the entire (but small) low-pass image. We test
this model on a dataset of face images, which are highly non-stationary and
contain large-scale geometric structures. Remarkably, denoising,
super-resolution, and image synthesis results all demonstrate that these
structures can be captured with significantly smaller conditioning
neighborhoods than required by a Markov model implemented in the pixel domain.
Our results show that score estimation for large complex images can be reduced
to low-dimensional Markov conditional models across scales, alleviating the
curse of dimensionality.
- Abstract(参考訳): ディープニューラルネットワークは、最近のスコアベースの拡散法で得られた高品質な世代によって証明されるように、画像の強力な事前確率モデルを学ぶことができる。
しかし、これらのネットワークが複雑なグローバルな統計構造を捉える手段は、明らかに次元の呪いに苦しむことなく、謎のままだ。
本研究では,拡散法を多スケール分解に組み込み,粗大係数に条件付きウェーブレット係数の定常局所マルコフモデルを仮定することにより次元性を低減する。
このモデルを畳み込みニューラルネットワーク(cnns)と局所受容場を用いてインスタンス化し、定常性とマルコフ特性の両方を強制する。
グローバル構造は、(小さな)ローパスイメージ全体をカバーする受容フィールドを持つCNNを使用してキャプチャされる。
我々はこのモデルを,非定常で大規模幾何学構造を含む顔画像のデータセット上でテストする。
驚くべきことに、デノイジング、超解像、画像合成の結果、これらの構造はピクセル領域に実装されたマルコフモデルが要求するよりもかなり小さいコンディショニング近傍でキャプチャできることを示している。
以上の結果から, 大規模画像のスコア推定は, 低次元マルコフ条件モデルに縮小でき, 次元の呪いを緩和できることがわかった。
関連論文リスト
- The Convex Landscape of Neural Networks: Characterizing Global Optima
and Stationary Points via Lasso Models [75.33431791218302]
ディープニューラルネットワーク(DNN)モデルは、プログラミング目的に使用される。
本稿では,凸型神経回復モデルについて検討する。
定常的非次元目的物はすべて,グローバルサブサンプリング型凸解法プログラムとして特徴付けられることを示す。
また, 静止非次元目的物はすべて, グローバルサブサンプリング型凸解法プログラムとして特徴付けられることを示す。
論文 参考訳(メタデータ) (2023-12-19T23:04:56Z) - Distance Weighted Trans Network for Image Completion [52.318730994423106]
本稿では,DWT(Distance-based Weighted Transformer)を利用した画像コンポーネント間の関係をよりよく理解するためのアーキテクチャを提案する。
CNNは、粗い事前の局所的なテクスチャ情報を強化するために使用される。
DWTブロックは、特定の粗いテクスチャやコヒーレントな視覚構造を復元するために使用される。
論文 参考訳(メタデータ) (2023-10-11T12:46:11Z) - Deep Networks as Denoising Algorithms: Sample-Efficient Learning of
Diffusion Models in High-Dimensional Graphical Models [22.353510613540564]
生成モデルにおけるディープニューラルネットワークによるスコア関数の近似効率について検討する。
楽譜関数はしばしば変分推論法を用いてグラフィカルモデルでよく近似される。
深層ニューラルネットワークによってスコア関数が学習されるとき,拡散に基づく生成モデルに縛られた効率的なサンプル複雑性を提供する。
論文 参考訳(メタデータ) (2023-09-20T15:51:10Z) - Traditional Classification Neural Networks are Good Generators: They are
Competitive with DDPMs and GANs [104.72108627191041]
従来のニューラルネットワーク分類器は、最先端の生成モデルに匹敵する高品質な画像を生成することができることを示す。
マスクをベースとした再構成モジュールを提案し, 意味的勾配を意識し, 可視画像の合成を行う。
また,本手法は,画像テキスト基盤モデルに関して,テキスト・画像生成にも適用可能であることを示す。
論文 参考訳(メタデータ) (2022-11-27T11:25:35Z) - PRANC: Pseudo RAndom Networks for Compacting deep models [22.793523211040682]
PRANCはディープモデルの大幅なコンパクト化を可能にする。
本研究では,PRANCを用いて画像分類モデルを構築し,関連する暗黙的ニューラルネットワークをコンパクト化することで画像の圧縮を行う。
論文 参考訳(メタデータ) (2022-06-16T22:03:35Z) - Joint Global and Local Hierarchical Priors for Learned Image Compression [30.44884350320053]
近年,従来の手書き画像コーデックと比較して,学習画像圧縮法の性能が向上している。
本稿では,ローカル情報とグローバル情報の両方をコンテンツに依存した方法で活用する,情報変換(Information Transformer, Informer)と呼ばれる新しいエントロピーモデルを提案する。
実験により,Informer はKodak および Tecnick データセットの最先端手法よりも速度歪み性能が向上することを示した。
論文 参考訳(メタデータ) (2021-12-08T06:17:37Z) - Anomaly Detection on Attributed Networks via Contrastive Self-Supervised
Learning [50.24174211654775]
本論文では,アトリビュートネットワーク上の異常検出のためのコントラスト型自己監視学習フレームワークを提案する。
このフレームワークは、新しいタイプのコントラストインスタンスペアをサンプリングすることで、ネットワークデータからのローカル情報を完全に活用します。
高次元特性と局所構造から情報埋め込みを学習するグラフニューラルネットワークに基づくコントラスト学習モデルを提案する。
論文 参考訳(メタデータ) (2021-02-27T03:17:20Z) - Stochastic Segmentation Networks: Modelling Spatially Correlated
Aleatoric Uncertainty [32.33791302617957]
画像セグメンテーションネットワークアーキテクチャを用いてアレータティック不確実性をモデル化するための効率的な確率的手法であるセグメンテーションネットワーク(SSN)を導入する。
SSNは単一の画像に対して複数の空間的コヒーレント仮説を生成することができる。
2次元CTでは肺結節,3次元MRIでは脳腫瘍を含む実世界の医療データのセグメンテーションについて検討した。
論文 参考訳(メタデータ) (2020-06-10T18:06:41Z) - Node Embeddings and Exact Low-Rank Representations of Complex Networks [30.869784223109832]
Seshadhriらによる最近の研究は、そのような埋め込みは複雑なネットワークで生じる局所構造を捉えることができないことを示唆している。
Seshadhriらの結果は、複雑なネットワークの低次元構造ではなく、それらが使用するモデルに密接に関連していることを示す。
論文 参考訳(メタデータ) (2020-06-10T01:09:03Z) - Belief Propagation Reloaded: Learning BP-Layers for Labeling Problems [83.98774574197613]
最も単純な推論手法の1つとして、切り詰められた最大積のBelief伝播を取り上げ、それをディープラーニングモデルの適切なコンポーネントにするために必要となるものを加えます。
このBP-Layerは畳み込みニューラルネットワーク(CNN)の最終ブロックまたは中間ブロックとして使用できる
このモデルは様々な密集予測問題に適用可能であり、パラメータ効率が高く、ステレオ、光フロー、セマンティックセグメンテーションにおける堅牢な解を提供する。
論文 参考訳(メタデータ) (2020-03-13T13:11:35Z) - Image Fine-grained Inpainting [89.17316318927621]
拡張畳み込みの密結合を利用してより大きく効果的な受容場を得る一段階モデルを提案する。
この効率的なジェネレータをよく訓練するために、頻繁に使用されるVGG特徴整合損失を除いて、新しい自己誘導回帰損失を設計する。
また、局所的・グローバルな分枝を持つ識別器を用いて、局所的・グローバルな内容の整合性を確保する。
論文 参考訳(メタデータ) (2020-02-07T03:45:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。