論文の概要: CALM: Convolution As Local Mixture
- arxiv url: http://arxiv.org/abs/2401.17400v1
- Date: Tue, 30 Jan 2024 19:35:07 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-01 16:25:35.451887
- Title: CALM: Convolution As Local Mixture
- Title(参考訳): CALM: ローカルミックスとしての進化
- Authors: Lifan Liang
- Abstract要約: 畳み込み層の特徴写像は、画像モデリングのための特別な種類のガウス混合の非正規化ログ後部と等価であることを示す。
次に,モデルを拡張して多様な特徴を駆動し,モデルを学ぶための対応するEMアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we showed that the feature map of a convolution layer is
equivalent to the unnormalized log posterior of a special kind of Gaussian
mixture for image modeling. Then we expanded the model to drive diverse
features and proposed a corresponding EM algorithm to learn the model. Learning
convolution weights using this approach is efficient, guaranteed to converge,
and does not need supervised information. Code is available at:
https://github.com/LifanLiang/CALM.
- Abstract(参考訳): 本稿では,畳み込み層の特徴写像を,画像モデリングのための特殊種類のガウス混合系の非正規化ログ後段と等価であることを示す。
次に,モデルを拡張して多様な特徴を駆動し,それに対応するEMアルゴリズムを提案する。
このアプローチによる畳み込み重みの学習は効率的で、収束が保証され、教師付き情報を必要としない。
コードは、https://github.com/LifanLiang/CALM.comで入手できる。
関連論文リスト
- Fusion of Gaussian Processes Predictions with Monte Carlo Sampling [61.31380086717422]
科学と工学において、私たちはしばしば興味のある変数の正確な予測のために設計されたモデルで作業します。
これらのモデルが現実の近似であることを認識し、複数のモデルを同じデータに適用し、結果を統合することが望ましい。
論文 参考訳(メタデータ) (2024-03-03T04:21:21Z) - Cramer Type Distances for Learning Gaussian Mixture Models by Gradient
Descent [0.0]
今日まで、ガウス混合モデルに適合または学習できる既知のアルゴリズムはほとんどない。
一般多変量GMM学習のためのスライスクラマー2距離関数を提案する。
これらの機能は、分散強化学習とディープQネットワークに特に有用である。
論文 参考訳(メタデータ) (2023-07-13T13:43:02Z) - Graph Polynomial Convolution Models for Node Classification of
Non-Homophilous Graphs [52.52570805621925]
本研究では,高階グラフ畳み込みからの効率的な学習と,ノード分類のための隣接行列から直接学習する。
得られたモデルが新しいグラフと残留スケーリングパラメータをもたらすことを示す。
提案手法は,非親和性パラメータのノード分類における精度の向上を実証する。
論文 参考訳(メタデータ) (2022-09-12T04:46:55Z) - Gaussian mixture model on nodes of Bayesian network given maximal
parental cliques [0.0]
ネットワークでガウス混合モデルを使う理由と方法を説明する。
そこで本研究では,混合モデルの最適化のための2重反復アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-04-20T15:14:01Z) - Gaussian Mixture Convolution Networks [13.493166990188278]
本稿では,多次元ガウス混合の解析的畳み込みに基づく新しい深層学習法を提案する。
このアーキテクチャに基づくネットワークは,MNIST と ModelNet のデータセットに適合したガウス混合の競合精度に達することを示す。
論文 参考訳(メタデータ) (2022-02-18T12:07:52Z) - Image Modeling with Deep Convolutional Gaussian Mixture Models [79.0660895390689]
画像の記述と生成に適したGMM(Deep Hierarchical Gaussian Mixture Models)の新しい定式化を紹介します。
DCGMMは、畳み込みとプーリング操作によってリンクされた複数のGMM層の積み重ねたアーキテクチャによってこれを回避している。
dcgmmsでシャープな画像を生成するために,畳み込みやプーリングなどの非可逆操作をサンプリングする新しい勾配に基づく手法を提案する。
MNISTとFashionMNISTのデータセットに基づいて,クラスタリング,サンプリング,外乱検出において,フラットなGMMよりも優れていることを示すことで,DCGMMsモデルを検証した。
論文 参考訳(メタデータ) (2021-04-19T12:08:53Z) - Plug-And-Play Learned Gaussian-mixture Approximate Message Passing [71.74028918819046]
そこで本研究では,従来のi.i.d.ソースに適した圧縮圧縮センシング(CS)リカバリアルゴリズムを提案する。
我々のアルゴリズムは、Borgerdingの学習AMP(LAMP)に基づいて構築されるが、アルゴリズムに普遍的な復調関数を採用することにより、それを大幅に改善する。
数値評価により,L-GM-AMPアルゴリズムは事前の知識を必要とせず,最先端の性能を実現する。
論文 参考訳(メタデータ) (2020-11-18T16:40:45Z) - Estimation of sparse Gaussian graphical models with hidden clustering
structure [8.258451067861932]
隠れクラスタリング構造を持つスパースガウス図形モデルを推定するモデルを提案する。
対称なガウス・シーデルに基づく乗算器の交互方向法を開発した。
合成データと実データの両方に関する数値実験により,本モデルの有効性が示された。
論文 参考訳(メタデータ) (2020-04-17T08:43:31Z) - Learning Gaussian Graphical Models via Multiplicative Weights [54.252053139374205]
乗算重み更新法に基づいて,Klivans と Meka のアルゴリズムを適用した。
アルゴリズムは、文献の他のものと質的に類似したサンプル複雑性境界を楽しみます。
ランタイムが低い$O(mp2)$で、$m$サンプルと$p$ノードの場合には、簡単にオンライン形式で実装できる。
論文 参考訳(メタデータ) (2020-02-20T10:50:58Z) - Model Fusion via Optimal Transport [64.13185244219353]
ニューラルネットワークのための階層モデル融合アルゴリズムを提案する。
これは、不均一な非i.d.データに基づいてトレーニングされたニューラルネットワーク間での"ワンショット"な知識伝達に成功していることを示す。
論文 参考訳(メタデータ) (2019-10-12T22:07:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。