論文の概要: On Interpretable Approaches to Cluster, Classify and Represent
Multi-Subspace Data via Minimum Lossy Coding Length based on Rate-Distortion
Theory
- arxiv url: http://arxiv.org/abs/2302.10383v1
- Date: Tue, 21 Feb 2023 01:15:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-22 16:41:22.714833
- Title: On Interpretable Approaches to Cluster, Classify and Represent
Multi-Subspace Data via Minimum Lossy Coding Length based on Rate-Distortion
Theory
- Title(参考訳): レートゆらぎ理論に基づく最小損失符号化長によるマルチサブスペースデータのクラスタ化,分類,表現への解釈可能なアプローチについて
- Authors: Kai-Liang Lu, Avraham Chapman
- Abstract要約: クラスタリング、分類、表現は、本質的な構造を持つ高次元データから学習する3つの基本的な目的である。
本稿では,3つの解釈可能なアプローチ,すなわち,最小ロッシー符号化長基準によるセグメンテーション(クラスタリング),最小インクリメンタル符号化長基準による分類,最大符号化レート削減基準による表現を紹介する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: To cluster, classify and represent are three fundamental objectives of
learning from high-dimensional data with intrinsic structure. To this end, this
paper introduces three interpretable approaches, i.e., segmentation
(clustering) via the Minimum Lossy Coding Length criterion, classification via
the Minimum Incremental Coding Length criterion and representation via the
Maximal Coding Rate Reduction criterion. These are derived based on the lossy
data coding and compression framework from the principle of rate distortion in
information theory. These algorithms are particularly suitable for dealing with
finite-sample data (allowed to be sparse or almost degenerate) of mixed
Gaussian distributions or subspaces. The theoretical value and attractive
features of these methods are summarized by comparison with other learning
methods or evaluation criteria. This summary note aims to provide a theoretical
guide to researchers (also engineers) interested in understanding 'white-box'
machine (deep) learning methods.
- Abstract(参考訳): クラスタ化、分類、表現は、内在構造を持つ高次元データから学ぶ3つの基本的な目的である。
そこで本研究では,最小ロッシー符号長基準によるセグメンテーション(クラスタリング),最小インクリメンタル符号化長基準による分類,最大符号化レート削減基準による表現の3つの解釈可能なアプローチを提案する。
これらは、情報理論におけるレート歪みの原理から、損失のあるデータ符号化と圧縮の枠組みに基づいて導出される。
これらのアルゴリズムは、混合ガウス分布や部分空間の有限サンプルデータ(スパースあるいはほぼ退化)を扱うのに特に適している。
これらの方法の理論的価値と魅力的な特徴は、他の学習方法や評価基準との比較によって要約される。
この要約は,「ホワイトボックス」マシン(深層)学習方法を理解することに関心のある研究者(エンジニアも含む)に理論的ガイドを提供することを目的としている。
関連論文リスト
- Synergistic eigenanalysis of covariance and Hessian matrices for enhanced binary classification [72.77513633290056]
本稿では, 学習モデルを用いて評価したヘッセン行列をトレーニングセットで評価した共分散行列の固有解析と, 深層学習モデルで評価したヘッセン行列を組み合わせた新しい手法を提案する。
本手法は複雑なパターンと関係を抽出し,分類性能を向上する。
論文 参考訳(メタデータ) (2024-02-14T16:10:42Z) - Mean Field Theory in Deep Metric Learning [0.0]
分類に基づく損失関数をペアベースから設計する手法を開発した。
我々は2つの新しい損失関数、MeanFieldContrastiveとMeanFieldClassWiseMultiSimilarity損失を導出し、トレーニングの複雑さを低減した。
得られた損失関数を3つの画像検索データセット上で広範囲に評価する。
論文 参考訳(メタデータ) (2023-06-27T10:33:37Z) - Improving Deep Representation Learning via Auxiliary Learnable Target Coding [69.79343510578877]
本稿では,深層表現学習の補助的正規化として,新たな学習対象符号化を提案する。
具体的には、より差別的な表現を促進するために、マージンベースの三重項損失と、提案した目標符号上の相関整合損失を設計する。
論文 参考訳(メタデータ) (2023-05-30T01:38:54Z) - Synergies between Disentanglement and Sparsity: Generalization and
Identifiability in Multi-Task Learning [79.83792914684985]
我々は,最大スパース基底予測器が不整合表現をもたらす条件を提供する新しい識別可能性の結果を証明した。
この理論的な結果から,両レベル最適化問題に基づくアンタングル表現学習の実践的アプローチを提案する。
論文 参考訳(メタデータ) (2022-11-26T21:02:09Z) - Federated Representation Learning via Maximal Coding Rate Reduction [109.26332878050374]
本稿では,複数のクライアントに分散したデータセットから低次元表現を学習する手法を提案する。
提案手法はFLOWと呼ばれ, MCR2を選択の対象とし, その結果, クラス間判別とクラス内圧縮の両方が可能な表現が得られた。
論文 参考訳(メタデータ) (2022-10-01T15:43:51Z) - Margin-Based Transfer Bounds for Meta Learning with Deep Feature
Embedding [67.09827634481712]
我々は、マージン理論と統計学習理論を活用し、メタラーニングに基づくマルチクラス分類(MLMC)のための3つのマージンベース転送境界を確立する。
これらの境界は、与えられた将来のタスクに対する分類アルゴリズムの予測誤差を、前のタスクの有限個の平均的な経験誤差で推定できることを示している。
3つのベンチマークの実験は、これらのマージンベースのモデルが依然として競争力のある性能を達成していることを示している。
論文 参考訳(メタデータ) (2020-12-02T23:50:51Z) - Scalable Hierarchical Agglomerative Clustering [65.66407726145619]
既存のスケーラブルな階層的クラスタリング手法は、スピードの質を犠牲にする。
我々は、品質を犠牲にせず、数十億のデータポイントまでスケールする、スケーラブルで集約的な階層的クラスタリング法を提案する。
論文 参考訳(メタデータ) (2020-10-22T15:58:35Z) - Learning Diverse and Discriminative Representations via the Principle of
Maximal Coding Rate Reduction [32.21975128854042]
本稿では、データセット全体と各クラスの和との符号化レート差を最大化する情報理論尺度である最大符号化レート削減(textMCR2$)の原理を提案する。
我々は,クロスエントロピー,情報ボトルネック,情報ゲイン,契約的・コントラスト的学習など,既存のフレームワークとの関係を明らかにするとともに,多様かつ差別的な特徴を学習するための理論的保証を提供する。
論文 参考訳(メタデータ) (2020-06-15T17:23:55Z) - Asymmetric Correlation Quantization Hashing for Cross-modal Retrieval [11.988383965639954]
クロスモーダルハッシュ法は異種モダリティ間の類似性検索において広く注目を集めている。
本稿では,ACQH法について述べる。
また,不均一なモダリティデータポイントのプロジェクション行列を学習し,クエリを潜在意味空間内の低次元実数値ベクトルに変換する。
学習された実数値コードワードの連続でデータベースポイントを示すために、粗大な方法で埋め込みを積み重ねた合成量子化を構成する。
論文 参考訳(メタデータ) (2020-01-14T04:53:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。