論文の概要: Gaussian Mixture Convolution Networks
- arxiv url: http://arxiv.org/abs/2202.09153v1
- Date: Fri, 18 Feb 2022 12:07:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-21 18:59:47.354353
- Title: Gaussian Mixture Convolution Networks
- Title(参考訳): ガウス混合畳み込みネットワーク
- Authors: Adam Celarek, Pedro Hermosilla, Bernhard Kerbl, Timo Ropinski, Michael
Wimmer
- Abstract要約: 本稿では,多次元ガウス混合の解析的畳み込みに基づく新しい深層学習法を提案する。
このアーキテクチャに基づくネットワークは,MNIST と ModelNet のデータセットに適合したガウス混合の競合精度に達することを示す。
- 参考スコア(独自算出の注目度): 13.493166990188278
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper proposes a novel method for deep learning based on the analytical
convolution of multidimensional Gaussian mixtures. In contrast to tensors,
these do not suffer from the curse of dimensionality and allow for a compact
representation, as data is only stored where details exist. Convolution kernels
and data are Gaussian mixtures with unconstrained weights, positions, and
covariance matrices. Similar to discrete convolutional networks, each
convolution step produces several feature channels, represented by independent
Gaussian mixtures. Since traditional transfer functions like ReLUs do not
produce Gaussian mixtures, we propose using a fitting of these functions
instead. This fitting step also acts as a pooling layer if the number of
Gaussian components is reduced appropriately. We demonstrate that networks
based on this architecture reach competitive accuracy on Gaussian mixtures
fitted to the MNIST and ModelNet data sets.
- Abstract(参考訳): 本稿では,多次元ガウス混合系の解析的畳み込みに基づく新しい深層学習法を提案する。
テンソルとは対照的に、これらは次元の呪いに苦しめられず、詳細なデータしか保存されないため、コンパクトな表現が可能である。
畳み込み核とデータは、制約のない重み、位置、共分散行列を持つガウス混合である。
離散畳み込みネットワークと同様に、各畳み込みステップは独立したガウス混合で表されるいくつかの特徴チャネルを生成する。
ReLUのような従来の伝達関数はガウス混合を生成しないので、代わりにこれらの関数のフィッティングを使うことを提案する。
このフィッティングステップは、ガウス成分の数を適切に減らせば、プーリング層としても機能する。
このアーキテクチャに基づくネットワークは,MNIST と ModelNet のデータセットに適合したガウス混合の競合精度に達することを示す。
関連論文リスト
- Learning Mixtures of Gaussians Using Diffusion Models [9.118706387430883]
テレビエラーに対して$k$ Gaussiansの混合を学習するための新しいアルゴリズムを提案する。
我々のアプローチは解析的であり、拡散モデルの枠組みに依存している。
論文 参考訳(メタデータ) (2024-04-29T17:00:20Z) - Efficient Learning of Convolution Weights as Gaussian Mixture Model Posteriors [0.0]
畳み込み層の特徴写像は、画像モデリングのための特別な種類のガウス混合の非正規化ログ後部と等価であることを示す。
次に,モデルを拡張して多様な特徴を駆動し,モデルを学ぶための対応するEMアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-01-30T19:35:07Z) - Fast Semisupervised Unmixing Using Nonconvex Optimization [80.11512905623417]
半/ライブラリベースのアンミックスのための新しい凸凸モデルを提案する。
スパース・アンミキシングの代替手法の有効性を実証する。
論文 参考訳(メタデータ) (2024-01-23T10:07:41Z) - Gaussian Mixture Solvers for Diffusion Models [84.83349474361204]
本稿では,拡散モデルのためのGMSと呼ばれる,SDEに基づく新しい解法について紹介する。
画像生成およびストロークベース合成におけるサンプル品質の観点から,SDEに基づく多くの解法よりも優れる。
論文 参考訳(メタデータ) (2023-11-02T02:05:38Z) - Compound Batch Normalization for Long-tailed Image Classification [77.42829178064807]
本稿では,ガウス混合に基づく複合バッチ正規化法を提案する。
機能空間をより包括的にモデル化し、ヘッドクラスの優位性を減らすことができる。
提案手法は,画像分類における既存の手法よりも優れている。
論文 参考訳(メタデータ) (2022-12-02T07:31:39Z) - Overlap-guided Gaussian Mixture Models for Point Cloud Registration [61.250516170418784]
確率的3Dポイントクラウド登録法は、ノイズ、アウトレーヤ、密度変動を克服する競合性能を示した。
本稿では,一致したガウス混合モデル(GMM)パラメータから最適変換を演算する,重複誘導確率登録手法を提案する。
論文 参考訳(メタデータ) (2022-10-17T08:02:33Z) - Mixtures of Gaussian Process Experts with SMC$^2$ [0.4588028371034407]
ガウスのプロセスエキスパートの混合は、データポイントが独立した専門家に割り当てられる場所として検討されている。
我々は、ネストした連続モンテカルロサンプルを用いた新しい推論手法を構築し、ゲーティングネットワークとガウス過程の専門家パラメータの両方を推論する。
論文 参考訳(メタデータ) (2022-08-26T18:20:14Z) - Gaussian mixture model on nodes of Bayesian network given maximal
parental cliques [0.0]
ネットワークでガウス混合モデルを使う理由と方法を説明する。
そこで本研究では,混合モデルの最適化のための2重反復アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-04-20T15:14:01Z) - A Robust and Flexible EM Algorithm for Mixtures of Elliptical
Distributions with Missing Data [71.9573352891936]
本稿では、ノイズや非ガウス的なデータに対するデータ計算の欠如に対処する。
楕円分布と潜在的な欠落データを扱う特性を混合した新しいEMアルゴリズムについて検討した。
合成データの実験的結果は,提案アルゴリズムが外れ値に対して頑健であり,非ガウスデータで使用可能であることを示す。
論文 参考訳(メタデータ) (2022-01-28T10:01:37Z) - Clustering of non-Gaussian data by variational Bayes for normal inverse
Gaussian mixture models [0.0]
実際の状況では、重い尾を持つ非ガウス的データや非対称なデータが多く存在する。
NIG混合モデルでは、期待最大化法と変分ベイズアルゴリズムの両方が提案されている。
NIG混合のための別のVBアルゴリズムを提案し、欠点を改善する。
また,クラスタ数決定の難しさを克服するため,ディリクレプロセス混合モデルの拡張も提案する。
論文 参考訳(メタデータ) (2020-09-13T14:13:27Z) - Gaussianization Flows [113.79542218282282]
そこで本研究では,サンプル生成における効率のよい繰り返しと効率のよい逆変換を両立できる新しい型正規化フローモデルを提案する。
この保証された表現性のため、サンプル生成の効率を損なうことなく、マルチモーダルなターゲット分布をキャプチャできる。
論文 参考訳(メタデータ) (2020-03-04T08:15:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。