論文の概要: Simplex-to-Euclidean Bijection for Conjugate and Calibrated Multiclass Gaussian Process
- arxiv url: http://arxiv.org/abs/2603.16621v1
- Date: Tue, 17 Mar 2026 14:58:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-18 17:42:07.354936
- Title: Simplex-to-Euclidean Bijection for Conjugate and Calibrated Multiclass Gaussian Process
- Title(参考訳): 共役および校正型多クラスガウス過程に対する単純-ユークリッド軌道
- Authors: Bernardo Williams, Harsha Vardhan Tetali, Arto Klami, Marcelo Hartmann,
- Abstract要約: 確率単純度の幾何学を利用して,多クラス分類のための共役・ガウス過程(GP)モデルを提案する。
このアプローチでは、Aitchison幾何を用いて、単純値のクラス確率を制約のないユークリッド表現にマッピングする。
これにより、モデル構築における分布近似に頼ることなく、共役推論と信頼できる予測確率が得られる。
- 参考スコア(独自算出の注目度): 7.729713754661845
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a conjugate and calibrated Gaussian process (GP) model for multi-class classification by exploiting the geometry of the probability simplex. Our approach uses Aitchison geometry to map simplex-valued class probabilities to an unconstrained Euclidean representation, turning classification into a GP regression problem with fewer latent dimensions than standard multi-class GP classifiers. This yields conjugate inference and reliable predictive probabilities without relying on distributional approximations in the model construction. The method is compatible with standard sparse GP regression techniques, enabling scalable inference on larger datasets. Empirical results show well-calibrated and competitive performance across synthetic and real-world datasets.
- Abstract(参考訳): 確率単純度の幾何学を利用して,多クラス分類のための共役・校正ガウス過程(GP)モデルを提案する。
提案手法では, Aitchison幾何を用いて, 単純値クラス確率を制約のないユークリッド表現にマッピングし, 標準マルチクラスGP分類器よりも遅延次元が少ないGP回帰問題に変換する。
これにより、モデル構築における分布近似に頼ることなく、共役推論と信頼できる予測確率が得られる。
この手法は標準のスパースGP回帰手法と互換性があり、より大きなデータセットでスケーラブルな推論を可能にする。
実験の結果は、合成データセットと実世界のデータセットの間で、よく校正され、競合する性能を示している。
関連論文リスト
- Scaling and renormalization in high-dimensional regression [72.59731158970894]
リッジ回帰に関する最近の結果について統一的な視点を提示する。
我々は、物理とディープラーニングの背景を持つ読者を対象に、ランダム行列理論と自由確率の基本的なツールを使用する。
我々の結果は拡張され、初期のスケーリング法則のモデルについて統一的な視点を提供する。
論文 参考訳(メタデータ) (2024-05-01T15:59:00Z) - Implicit Manifold Gaussian Process Regression [49.0787777751317]
ガウス過程の回帰は、よく校正された不確実性推定を提供するために広く用いられている。
これは、データが実際に存在する暗黙の低次元多様体のため、高次元データに苦しむ。
本稿では,データ(ラベル付きおよびラベルなし)から直接暗黙構造を完全に微分可能な方法で推定できる手法を提案する。
論文 参考訳(メタデータ) (2023-10-30T09:52:48Z) - Scalable mixed-domain Gaussian process modeling and model reduction for longitudinal data [5.00301731167245]
混合領域共分散関数に対する基底関数近似スキームを導出する。
我々は,GPモデルの精度をランタイムのごく一部で正確に近似できることを示す。
また、より小さく、より解釈可能なモデルを得るためのスケーラブルなモデルリダクションワークフローを実証する。
論文 参考訳(メタデータ) (2021-11-03T04:47:37Z) - Scalable Variational Gaussian Processes via Harmonic Kernel
Decomposition [54.07797071198249]
汎用性を維持しつつ高い忠実度近似を提供する,スケーラブルな変分ガウス過程近似を導入する。
様々な回帰問題や分類問題において,本手法は変換やリフレクションなどの入力空間対称性を活用できることを実証する。
提案手法は, 純粋なGPモデルのうち, CIFAR-10 の最先端化を実現する。
論文 参考訳(メタデータ) (2021-06-10T18:17:57Z) - Learning Gaussian Mixtures with Generalised Linear Models: Precise
Asymptotics in High-dimensions [79.35722941720734]
多クラス分類問題に対する一般化線形モデルは、現代の機械学習タスクの基本的な構成要素の1つである。
実験的リスク最小化による高次元推定器の精度を実証する。
合成データの範囲を超えて我々の理論をどのように適用できるかを論じる。
論文 参考訳(メタデータ) (2021-06-07T16:53:56Z) - Scalable Cross Validation Losses for Gaussian Process Models [22.204619587725208]
線形および多クラス分類に適応するために,Polya-Gamma補助変数と変分推論を用いる。
提案手法は,高速トレーニングと優れた予測性能を実現する。
論文 参考訳(メタデータ) (2021-05-24T21:01:47Z) - Robust Gaussian Process Regression Based on Iterative Trimming [6.912744078749024]
本稿では、最も極端なデータポイントを反復的にトリムする、新しい頑健なGP回帰アルゴリズムを提案する。
極端または豊富な外れ値が存在する場合でも、汚染されたデータのモデル精度を大幅に向上させることができる。
天体物理学的な研究の実践例として、星団の色-マグニチュード図の主系列尾根線を正確に決定できることが示されている。
論文 参考訳(メタデータ) (2020-11-22T16:43:35Z) - Identification of Probability weighted ARX models with arbitrary domains [75.91002178647165]
PieceWise Affineモデルは、ハイブリッドシステムの他のクラスに対する普遍近似、局所線型性、同値性を保証する。
本研究では,任意の領域を持つ固有入力モデル(NPWARX)を用いたPieceWise Auto Regressiveの同定に着目する。
このアーキテクチャは、機械学習の分野で開発されたMixture of Expertの概念に従って考案された。
論文 参考訳(メタデータ) (2020-09-29T12:50:33Z) - Good Classifiers are Abundant in the Interpolating Regime [64.72044662855612]
補間分類器間のテストエラーの完全な分布を正確に計算する手法を開発した。
テストエラーは、最悪の補間モデルのテストエラーから大きく逸脱する、小さな典型的な$varepsilon*$に集中する傾向にある。
以上の結果から,統計的学習理論における通常の解析手法は,実際に観測された優れた一般化性能を捉えるのに十分な粒度にはならない可能性が示唆された。
論文 参考訳(メタデータ) (2020-06-22T21:12:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。