論文の概要: Meta-learning representations for clustering with infinite Gaussian
mixture models
- arxiv url: http://arxiv.org/abs/2103.00694v1
- Date: Mon, 1 Mar 2021 02:05:31 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-03 17:17:09.128809
- Title: Meta-learning representations for clustering with infinite Gaussian
mixture models
- Title(参考訳): 無限ガウス混合モデルを用いたクラスタリングのためのメタラーニング表現
- Authors: Tomoharu Iwata
- Abstract要約: クラスタリング性能を向上させるためにニューラルネットワークを訓練するメタラーニング手法を提案する。
提案手法は,非ラベルデータとは異なるラベルデータを用いた知識メタ学習を用いて,未ラベルデータをクラスタ化することができる。
- 参考スコア(独自算出の注目度): 39.56814839510978
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: For better clustering performance, appropriate representations are critical.
Although many neural network-based metric learning methods have been proposed,
they do not directly train neural networks to improve clustering performance.
We propose a meta-learning method that train neural networks for obtaining
representations such that clustering performance improves when the
representations are clustered by the variational Bayesian (VB) inference with
an infinite Gaussian mixture model. The proposed method can cluster unseen
unlabeled data using knowledge meta-learned with labeled data that are
different from the unlabeled data. For the objective function, we propose a
continuous approximation of the adjusted Rand index (ARI), by which we can
evaluate the clustering performance from soft clustering assignments. Since the
approximated ARI and the VB inference procedure are differentiable, we can
backpropagate the objective function through the VB inference procedure to
train the neural networks. With experiments using text and image data sets, we
demonstrate that our proposed method has a higher adjusted Rand index than
existing methods do.
- Abstract(参考訳): クラスタリングのパフォーマンスを改善するためには、適切な表現が重要です。
多くのニューラルネットワークベースのメトリック学習手法が提案されているが、クラスタリング性能を改善するために直接ニューラルネットワークをトレーニングしていない。
本研究では,無限ガウス混合モデルを用いた変動ベイズ推論(VB)により,表現がクラスタ化されるとクラスタリング性能が向上するようにニューラルネットワークを訓練するメタラーニング手法を提案する。
提案手法は,非ラベルデータとは異なるラベルデータを用いた知識メタ学習を用いて,未ラベルデータをクラスタ化することができる。
目的関数として,適応されたRand index (ARI) の連続近似を提案し,ソフトクラスタリングの割り当てからクラスタリング性能を評価する。
近似したARIとVB推論手順は微分可能であるため、VB推論手順を通じて目的関数をバックプロパゲートしてニューラルネットワークを訓練することができる。
テキストと画像データセットを用いた実験により,提案手法は既存手法よりも高調整率のRandインデックスを持つことを示した。
関連論文リスト
- Ensemble Quadratic Assignment Network for Graph Matching [52.20001802006391]
グラフマッチングはコンピュータビジョンやパターン認識において一般的に用いられる技法である。
最近のデータ駆動型アプローチは、グラフマッチングの精度を著しく改善した。
データ駆動手法と従来の手法の利点を組み合わせたグラフニューラルネットワーク(GNN)に基づくアプローチを提案する。
論文 参考訳(メタデータ) (2024-03-11T06:34:05Z) - Nonlinear subspace clustering by functional link neural networks [20.972039615938193]
フィードフォワードニューラルネットワークに基づくサブスペースクラスタリングは、いくつかの高度なサブスペースクラスタリングアルゴリズムよりも優れたクラスタリング精度を提供することを示した。
我々は,データサンプルを非線形領域に変換するために,関数型リンクニューラルネットワークを用いる。
本稿では,線形サブスペースクラスタリング手法と関数型リンクニューラルネットワークサブスペースクラスタリング手法を組み合わせた凸結合サブスペースクラスタリング手法を提案する。
論文 参考訳(メタデータ) (2024-02-03T06:01:21Z) - Adaptive aggregation of Monte Carlo augmented decomposed filters for efficient group-equivariant convolutional neural network [0.36122488107441414]
グループ等価畳み込みニューラルネットワーク(G-CNN)は、CNNのデータ効率と性能を向上させるためにパラメータ共有に大きく依存している。
群同変ニューラルネットワークに対する非パラメータ共有手法を提案する。
提案手法は, 拡張フィルタの重み付け和により, 多様なフィルタを適応的に集約する。
論文 参考訳(メタデータ) (2023-05-17T10:18:02Z) - A One-shot Framework for Distributed Clustered Learning in Heterogeneous
Environments [54.172993875654015]
異種環境における分散学習のためのコミュニケーション効率化手法のファミリーを提案する。
ユーザによるローカル計算に基づくワンショットアプローチと、サーバにおけるクラスタリングベースのアグリゲーションステップは、強力な学習保証を提供する。
厳密な凸問題に対しては,ユーザ毎のデータ点数がしきい値を超える限り,提案手法はサンプルサイズの観点から順序最適平均二乗誤差率を達成する。
論文 参考訳(メタデータ) (2022-09-22T09:04:10Z) - A Framework and Benchmark for Deep Batch Active Learning for Regression [2.093287944284448]
ラベル付きデータのバッチを適応的に選択する能動的学習法について検討した。
本稿では,ネットワークに依存した)ベースカーネル,カーネル変換,選択メソッドからそのようなメソッドを構築するためのフレームワークを提案する。
提案手法は,我々のベンチマークの最先端性,大規模データセットへのスケール,ネットワークアーキテクチャやトレーニングコードを調整することなく,アウト・オブ・ボックスで動作する。
論文 参考訳(メタデータ) (2022-03-17T16:11:36Z) - Invariance Learning in Deep Neural Networks with Differentiable Laplace
Approximations [76.82124752950148]
我々はデータ拡張を選択するための便利な勾配法を開発した。
我々はKronecker-factored Laplace近似を我々の目的とする限界確率に近似する。
論文 参考訳(メタデータ) (2022-02-22T02:51:11Z) - Variational Auto Encoder Gradient Clustering [0.0]
近年,ディープニューラルネットワークモデルを用いたクラスタリングが広く研究されている。
本稿では、より良いクラスタリングを実現するために確率関数勾配上昇を使用してデータを処理する方法を検討する。
DBSCANクラスタリングアルゴリズムに基づいて,データに適したクラスタ数を調べるための簡便かつ効果的な方法を提案する。
論文 参考訳(メタデータ) (2021-05-11T08:00:36Z) - Local Critic Training for Model-Parallel Learning of Deep Neural
Networks [94.69202357137452]
そこで我々は,局所的批判訓練と呼ばれる新しいモデル並列学習手法を提案する。
提案手法は,畳み込みニューラルネットワーク(CNN)とリカレントニューラルネットワーク(RNN)の両方において,階層群の更新プロセスの分離に成功したことを示す。
また,提案手法によりトレーニングされたネットワークを構造最適化に利用できることを示す。
論文 参考訳(メタデータ) (2021-02-03T09:30:45Z) - Improving k-Means Clustering Performance with Disentangled Internal
Representations [0.0]
本稿では,オートエンコーダの学習遅延符号表現の絡み合いを最適化する,シンプルなアプローチを提案する。
提案手法を用いて,MNISTデータセットでは96.2%,Fashion-MNISTデータセットでは85.6%,EMNIST Balancedデータセットでは79.2%,ベースラインモデルでは79.2%であった。
論文 参考訳(メタデータ) (2020-06-05T11:32:34Z) - MSE-Optimal Neural Network Initialization via Layer Fusion [68.72356718879428]
ディープニューラルネットワークは、さまざまな分類と推論タスクに対して最先端のパフォーマンスを達成する。
グラデーションと非進化性の組み合わせは、学習を新しい問題の影響を受けやすいものにする。
確率変数を用いて学習した深層ネットワークの近傍層を融合する手法を提案する。
論文 参考訳(メタデータ) (2020-01-28T18:25:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。