論文の概要: CALM: Convolution As Local Mixture
- arxiv url: http://arxiv.org/abs/2401.17400v1
- Date: Tue, 30 Jan 2024 19:35:07 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-01 16:25:35.451887
- Title: CALM: Convolution As Local Mixture
- Title(参考訳): CALM: ローカルミックスとしての進化
- Authors: Lifan Liang
- Abstract要約: 畳み込み層の特徴写像は、画像モデリングのための特別な種類のガウス混合の非正規化ログ後部と等価であることを示す。
次に,モデルを拡張して多様な特徴を駆動し,モデルを学ぶための対応するEMアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we showed that the feature map of a convolution layer is
equivalent to the unnormalized log posterior of a special kind of Gaussian
mixture for image modeling. Then we expanded the model to drive diverse
features and proposed a corresponding EM algorithm to learn the model. Learning
convolution weights using this approach is efficient, guaranteed to converge,
and does not need supervised information. Code is available at:
https://github.com/LifanLiang/CALM.
- Abstract(参考訳): 本稿では,畳み込み層の特徴写像を,画像モデリングのための特殊種類のガウス混合系の非正規化ログ後段と等価であることを示す。
次に,モデルを拡張して多様な特徴を駆動し,それに対応するEMアルゴリズムを提案する。
このアプローチによる畳み込み重みの学習は効率的で、収束が保証され、教師付き情報を必要としない。
コードは、https://github.com/LifanLiang/CALM.comで入手できる。
関連論文リスト
- Cramer Type Distances for Learning Gaussian Mixture Models by Gradient
Descent [0.0]
今日まで、ガウス混合モデルに適合または学習できる既知のアルゴリズムはほとんどない。
一般多変量GMM学習のためのスライスクラマー2距離関数を提案する。
これらの機能は、分散強化学習とディープQネットワークに特に有用である。
論文 参考訳(メタデータ) (2023-07-13T13:43:02Z) - PRANC: Pseudo RAndom Networks for Compacting deep models [22.793523211040682]
PRANCはディープモデルの大幅なコンパクト化を可能にする。
本研究では,PRANCを用いて画像分類モデルを構築し,関連する暗黙的ニューラルネットワークをコンパクト化することで画像の圧縮を行う。
論文 参考訳(メタデータ) (2022-06-16T22:03:35Z) - A new perspective on probabilistic image modeling [92.89846887298852]
本稿では,密度推定,サンプリング,トラクタブル推論が可能な画像モデリングのための新しい確率論的手法を提案する。
DCGMMは、CNNのように、ランダムな初期条件からSGDによってエンドツーエンドに訓練することができる。
本研究は,近年のPCおよびSPNモデルと,推論,分類,サンプリングの観点から比較した。
論文 参考訳(メタデータ) (2022-03-21T14:53:57Z) - Gaussian Mixture Convolution Networks [13.493166990188278]
本稿では,多次元ガウス混合の解析的畳み込みに基づく新しい深層学習法を提案する。
このアーキテクチャに基づくネットワークは,MNIST と ModelNet のデータセットに適合したガウス混合の競合精度に達することを示す。
論文 参考訳(メタデータ) (2022-02-18T12:07:52Z) - Bayesian Atlas Building with Hierarchical Priors for Subject-specific
Regularization [10.731237138206836]
本稿では, 画像登録を対象とする非バイアス型アトラス構築のための階層型ベイズモデルを提案する。
実験結果から,本モデルでは, シングルペナルティ正規化による現在のアトラス構築アルゴリズムと比較して, よりシャープなアトラスが得られた。
論文 参考訳(メタデータ) (2021-07-12T19:32:09Z) - Image Modeling with Deep Convolutional Gaussian Mixture Models [79.0660895390689]
画像の記述と生成に適したGMM(Deep Hierarchical Gaussian Mixture Models)の新しい定式化を紹介します。
DCGMMは、畳み込みとプーリング操作によってリンクされた複数のGMM層の積み重ねたアーキテクチャによってこれを回避している。
dcgmmsでシャープな画像を生成するために,畳み込みやプーリングなどの非可逆操作をサンプリングする新しい勾配に基づく手法を提案する。
MNISTとFashionMNISTのデータセットに基づいて,クラスタリング,サンプリング,外乱検出において,フラットなGMMよりも優れていることを示すことで,DCGMMsモデルを検証した。
論文 参考訳(メタデータ) (2021-04-19T12:08:53Z) - Transfer learning based few-shot classification using optimal transport
mapping from preprocessed latent space of backbone neural network [0.0]
本論文は,大会における2番目に優れた応募について述べる。
メタラーニング手法は,各クラスに対して,バックボーンネットワークによって生成される潜在空間におけるクラス分布を変化させる。
そこで本研究では,シンクホーンアルゴリズムを用いた最適トランスポートマッピングを提案する。
論文 参考訳(メタデータ) (2021-02-09T23:10:58Z) - Plug-And-Play Learned Gaussian-mixture Approximate Message Passing [71.74028918819046]
そこで本研究では,従来のi.i.d.ソースに適した圧縮圧縮センシング(CS)リカバリアルゴリズムを提案する。
我々のアルゴリズムは、Borgerdingの学習AMP(LAMP)に基づいて構築されるが、アルゴリズムに普遍的な復調関数を採用することにより、それを大幅に改善する。
数値評価により,L-GM-AMPアルゴリズムは事前の知識を必要とせず,最先端の性能を実現する。
論文 参考訳(メタデータ) (2020-11-18T16:40:45Z) - Learning Gaussian Graphical Models via Multiplicative Weights [54.252053139374205]
乗算重み更新法に基づいて,Klivans と Meka のアルゴリズムを適用した。
アルゴリズムは、文献の他のものと質的に類似したサンプル複雑性境界を楽しみます。
ランタイムが低い$O(mp2)$で、$m$サンプルと$p$ノードの場合には、簡単にオンライン形式で実装できる。
論文 参考訳(メタデータ) (2020-02-20T10:50:58Z) - Semi-Supervised Learning with Normalizing Flows [54.376602201489995]
FlowGMMは、フローの正規化を伴う生成半教師付き学習におけるエンドツーエンドのアプローチである。
我々は AG-News や Yahoo Answers のテキストデータなど,幅広いアプリケーションに対して有望な結果を示す。
論文 参考訳(メタデータ) (2019-12-30T17:36:33Z) - Model Fusion via Optimal Transport [64.13185244219353]
ニューラルネットワークのための階層モデル融合アルゴリズムを提案する。
これは、不均一な非i.d.データに基づいてトレーニングされたニューラルネットワーク間での"ワンショット"な知識伝達に成功していることを示す。
論文 参考訳(メタデータ) (2019-10-12T22:07:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。