論文の概要: InClass Nets: Independent Classifier Networks for Nonparametric
Estimation of Conditional Independence Mixture Models and Unsupervised
Classification
- arxiv url: http://arxiv.org/abs/2009.00131v1
- Date: Mon, 31 Aug 2020 22:24:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-23 07:11:53.971464
- Title: InClass Nets: Independent Classifier Networks for Nonparametric
Estimation of Conditional Independence Mixture Models and Unsupervised
Classification
- Title(参考訳): inclass nets: 条件付き独立混合モデルと教師なし分類の非パラメトリック推定のための独立分類器ネットワーク
- Authors: Konstantin T. Matchev, Prasanth Shyamsundar
- Abstract要約: 我々は、独立ニューラルネットワーク(Independent Neural Network, NN)と呼ばれる新しい機械学習ベースのアプローチを導入する。
NNが任意の関数を近似する能力は、我々の手法を非パラメトリックにする。
また,本手法は,教師なし・半教師付き分類問題にも応用できる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce a new machine-learning-based approach, which we call the
Independent Classifier networks (InClass nets) technique, for the
nonparameteric estimation of conditional independence mixture models (CIMMs).
We approach the estimation of a CIMM as a multi-class classification problem,
since dividing the dataset into different categories naturally leads to the
estimation of the mixture model. InClass nets consist of multiple independent
classifier neural networks (NNs), each of which handles one of the variates of
the CIMM. Fitting the CIMM to the data is performed by simultaneously training
the individual NNs using suitable cost functions. The ability of NNs to
approximate arbitrary functions makes our technique nonparametric. Further
leveraging the power of NNs, we allow the conditionally independent variates of
the model to be individually high-dimensional, which is the main advantage of
our technique over existing non-machine-learning-based approaches. We derive
some new results on the nonparametric identifiability of bivariate CIMMs, in
the form of a necessary and a (different) sufficient condition for a bivariate
CIMM to be identifiable. We provide a public implementation of InClass nets as
a Python package called RainDancesVI and validate our InClass nets technique
with several worked out examples. Our method also has applications in
unsupervised and semi-supervised classification problems.
- Abstract(参考訳): 本稿では,Independent Classifier Network (InClass nets) と呼ばれる機械学習に基づく新しい手法を導入し,条件付き独立混合モデル(CIMM)の非パラメータ推定を行う。
データセットを異なるカテゴリに分割することで混合モデルの推定が自然に導かれるため,CIMMを多クラス分類問題として推定する方法を提案する。
InClass netは複数の独立した分類器ニューラルネットワーク(NN)で構成され、それぞれがCIMMの変数の1つを処理する。
CIMMをデータに適合させるには、適切なコスト関数を用いて個々のNNを同時に訓練する。
NNが任意の関数を近似する能力は、我々の手法を非パラメトリックにする。
NNのパワーのさらなる活用により、モデルの条件付き独立変数を個別に高次元にすることが可能になる。
二変量cimmの非パラメトリック識別性について、二変量cimmが識別可能となるために必要な(異なる)十分条件として、いくつかの新しい結果を導出する。
我々は、RainDancesVIと呼ばれるPythonパッケージとしてInClass netsの公開実装を提供し、いくつかの実例でInClass netsテクニックを検証する。
また,本手法は教師なし・半教師付き分類問題にも応用できる。
関連論文リスト
- Amortized Bayesian Mixture Models [1.3976439685325095]
本稿では,混合モデルに適したABI(Amortized Bayesian Inference)の拡張について紹介する。
我々は、後部をパラメータの分布と(カテゴリー的な)混合指標の分布に分解し、生成ニューラルネットワークの組み合わせを利用できるようにする。
提案フレームワークは、独立混合モデルと依存混合モデルの両方に対応し、フィルタリングと平滑化を可能にする。
論文 参考訳(メタデータ) (2025-01-17T14:51:03Z) - Ensemble Methods for Sequence Classification with Hidden Markov Models [8.241486511994202]
隠れマルコフモデル(HMM)のためのアンサンブル手法を用いたシーケンス分類への軽量なアプローチを提案する。
HMMは、その単純さ、解釈可能性、効率性のために、不均衡または小さいデータセットを持つシナリオにおいて、大きな利点を提供する。
アンサンブルに基づくスコアリング手法により,任意の長さのシーケンスの比較が可能となり,不均衡なデータセットの性能が向上する。
論文 参考訳(メタデータ) (2024-09-11T20:59:32Z) - Task-customized Masked AutoEncoder via Mixture of Cluster-conditional
Experts [104.9871176044644]
Masked Autoencoder (MAE) は,モデル事前学習において有望な結果が得られる自己教師型学習手法である。
我々は、新しいMAEベースの事前学習パラダイム、Mixture of Cluster-conditional Experts (MoCE)を提案する。
MoCEは、クラスタ条件ゲートを使用して、各専門家にセマンティックなイメージのみをトレーニングする。
論文 参考訳(メタデータ) (2024-02-08T03:46:32Z) - How to Combine Variational Bayesian Networks in Federated Learning [0.0]
フェデレートラーニングにより、複数のデータセンターが機密データを公開することなく、協力的に中央モデルをトレーニングできる。
決定論的モデルは高い予測精度を達成することができ、キャリブレーションの欠如と不確実性を定量化する能力は、安全クリティカルなアプリケーションには問題となる。
変分ベイズニューラルネットワークに対する様々なアグリゲーションスキームの効果について検討する。
論文 参考訳(メタデータ) (2022-06-22T07:53:12Z) - Robustness Certificates for Implicit Neural Networks: A Mixed Monotone
Contractive Approach [60.67748036747221]
暗黙のニューラルネットワークは、競合性能とメモリ消費の削減を提供する。
入力逆流の摂動に関して、それらは不安定なままである。
本稿では,暗黙的ニューラルネットワークのロバスト性検証のための理論的および計算的枠組みを提案する。
論文 参考訳(メタデータ) (2021-12-10T03:08:55Z) - Normalizing Flow based Hidden Markov Models for Classification of Speech
Phones with Explainability [25.543231171094384]
説明可能性を求めるため,逐次データ生成モデルを開発した。
我々は、現代のニューラルネットワーク(正規化フロー)と伝統的な生成モデル(隠れマルコフモデル - HMM)を組み合わせる。
提案した生成モデルは、データの可能性を計算することができ、従って、最大形分類法(ML)に直接適合する。
論文 参考訳(メタデータ) (2021-07-01T20:10:55Z) - A hybrid model-based and learning-based approach for classification
using limited number of training samples [13.60714541247498]
本稿では,物理に基づく統計モデルと学習に基づく分類器の両方を利用するハイブリッド分類手法であるHyPhyLearnを提案する。
提案手法は、HyPhyLearnが学習ベースおよび統計モデルに基づく分類器の個人的アプローチに関連する課題を軽減するという予想に基づいている。
論文 参考訳(メタデータ) (2021-06-25T05:19:50Z) - A Correspondence Variational Autoencoder for Unsupervised Acoustic Word
Embeddings [50.524054820564395]
そこで本稿では,変数分割音声セグメントを固定次元表現にマッピングするための教師なしモデルを提案する。
結果として得られる音響単語の埋め込みは、低リソース言語とゼロリソース言語のための検索、発見、インデックスシステムの基礎を形成することができる。
論文 参考訳(メタデータ) (2020-12-03T19:24:42Z) - Identification of Probability weighted ARX models with arbitrary domains [75.91002178647165]
PieceWise Affineモデルは、ハイブリッドシステムの他のクラスに対する普遍近似、局所線型性、同値性を保証する。
本研究では,任意の領域を持つ固有入力モデル(NPWARX)を用いたPieceWise Auto Regressiveの同定に着目する。
このアーキテクチャは、機械学習の分野で開発されたMixture of Expertの概念に従って考案された。
論文 参考訳(メタデータ) (2020-09-29T12:50:33Z) - Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach [144.21892195917758]
一般化構造方程式モデル(SEM)のクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、勾配勾配を用いてニューラルネットワークのパラメータを学習する。
提案手法は,サンプル分割を必要とせず,確固とした収束性を持つNNをベースとしたSEMの抽出可能な推定手順を初めて提供する。
論文 参考訳(メタデータ) (2020-07-02T17:55:47Z) - Model Fusion via Optimal Transport [64.13185244219353]
ニューラルネットワークのための階層モデル融合アルゴリズムを提案する。
これは、不均一な非i.d.データに基づいてトレーニングされたニューラルネットワーク間での"ワンショット"な知識伝達に成功していることを示す。
論文 参考訳(メタデータ) (2019-10-12T22:07:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。