論文の概要: Geometric Mixture Classifier (GMC): A Discriminative Per-Class Mixture of Hyperplanes
- arxiv url: http://arxiv.org/abs/2509.16769v1
- Date: Sat, 20 Sep 2025 18:32:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-23 18:58:15.967247
- Title: Geometric Mixture Classifier (GMC): A Discriminative Per-Class Mixture of Hyperplanes
- Title(参考訳): 幾何混合分類器(GMC: Geometric Mixture Classifier)
- Authors: Prasanth K K, Shubham Sharma,
- Abstract要約: 古典線形モデル(論理回帰、線形SVM)は、単一の大域超平面を用いており、そのようなデータでは不十分である。
我々は,各クラスを超平面の混合として表現する識別モデルであるGeometric Mixture (GMC)を提案する。
- 参考スコア(独自算出の注目度): 1.4557098800700885
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Many real world categories are multimodal, with single classes occupying disjoint regions in feature space. Classical linear models (logistic regression, linear SVM) use a single global hyperplane and perform poorly on such data, while high-capacity methods (kernel SVMs, deep nets) fit multimodal structure but at the expense of interpretability, heavier tuning, and higher computational cost. We propose the Geometric Mixture Classifier (GMC), a discriminative model that represents each class as a mixture of hyperplanes. Within each class, GMC combines plane scores via a temperature-controlled soft-OR (log-sum-exp), smoothly approximating the max; across classes, standard softmax yields probabilistic posteriors. GMC optionally uses Random Fourier Features (RFF) for nonlinear mappings while keeping inference linear in the number of planes and features. Our practical training recipe: geometry-aware k-means initialization, silhouette-based plane budgeting, alpha annealing, usage-aware L2 regularization, label smoothing, and early stopping, makes GMC plug-and-play. Across synthetic multimodal datasets (moons, circles, blobs, spirals) and tabular/image benchmarks (iris, wine, WDBC, digits), GMC consistently outperforms linear baselines and k-NN, is competitive with RBF-SVM, Random Forests, and small MLPs, and provides geometric introspection via per-plane and class responsibility visualizations. Inference scales linearly in planes and features, making GMC CPU-friendly, with single-digit microsecond latency per example, often faster than RBF-SVM and compact MLPs. Post-hoc temperature scaling reduces ECE from about 0.06 to 0.02. GMC thus strikes a favorable balance of accuracy, interpretability, and efficiency: it is more expressive than linear models and lighter, more transparent, and faster than kernel or deep models.
- Abstract(参考訳): 多くの実世界圏はマルチモーダルであり、単一クラスは特徴空間における非連結領域を占有する。
古典線形モデル(論理回帰、線形SVM)は1つの大域超平面を使用し、そのようなデータに対して性能が劣る一方、高容量法(カーネルSVM、ディープネット)は多モード構造に適合するが、解釈可能性、重み付け、計算コストは高い。
我々は,各クラスを超平面の混合として表現する識別モデルである幾何混合分類器(GMC)を提案する。
各クラスにおいて、GMCは温度制御されたソフトOR(log-sum-exp)を介して平面スコアを結合し、最大値を滑らかに近似する。
GMCは、平面数や特徴数を線形に保ちながら非線形マッピングにランダムフーリエ特徴(RFF)を用いる。
我々の実践的なトレーニングレシピは、幾何学的k平均初期化、シルエットに基づく平面予算化、アルファアニール化、使用法を意識したL2正規化、ラベルの平滑化、早期停止により、GCCプラグアンドプレイが実現される。
合成マルチモーダルデータセット(ムーン、円、ブロブ、スパイラル)と表/画像ベンチマーク(虹彩、ワイン、WDBC、数字)全体にわたって、GCCはリニアベースラインとk-NNを一貫して上回り、RBF-SVM、ランダムフォレスト、および小さなMLPと競合し、平面内およびクラス間の責任視覚化を通じて幾何学的イントロスペクションを提供する。
推論は平面や特徴において線形にスケールするので、例えば1桁のマイクロ秒のレイテンシでGCC CPUに優しくなり、RBF-SVMやコンパクトMPPよりも高速になる。
高温後のスケーリングにより、ECEは約0.06から0.02に低下する。
GMCは線形モデルよりも表現力があり、より軽量で、より透明で、カーネルやディープモデルよりも高速である。
関連論文リスト
- GP-FL: Model-Based Hessian Estimation for Second-Order Over-the-Air Federated Learning [52.295563400314094]
2次法は学習アルゴリズムの収束率を改善するために広く採用されている。
本稿では,無線チャネルに適した新しい2次FLフレームワークを提案する。
論文 参考訳(メタデータ) (2024-12-05T04:27:41Z) - Optimal Mixed Integer Linear Optimization Trained Multivariate Classification Trees [0.0]
最適二分分類木を設計するための2つのカットベース混合整数線形最適化(MILO)法を提案する。
我々のモデルは、最小限の実用不可能なサブシステム(MIS)をオンザフライで識別し、パッケージング制約の形をとる切断平面を導出する。
論文 参考訳(メタデータ) (2024-08-02T14:37:28Z) - MC-GTA: Metric-Constrained Model-Based Clustering using Goodness-of-fit Tests with Autocorrelations [6.172236465839398]
既存のクラスタリングアルゴリズムは、特徴類似性と距離距離とのリッチな相関を見落としている。
MC-GTAは, 自己相関測定に有効であることを示す。
強いベースラインを大きなマージンで上回る。
論文 参考訳(メタデータ) (2024-05-28T17:35:05Z) - Message-Passing Monte Carlo: Generating low-discrepancy point sets via Graph Neural Networks [64.39488944424095]
本稿では,Message-Passing Monte Carlo という低差点集合を生成する機械学習手法を提案する。
MPMC点は、低次元と少数の点との差に関して、最適かほぼ最適であることが実証的に示されている。
論文 参考訳(メタデータ) (2024-05-23T21:17:20Z) - Minimally Supervised Learning using Topological Projections in
Self-Organizing Maps [55.31182147885694]
自己組織化マップ(SOM)におけるトポロジカルプロジェクションに基づく半教師付き学習手法を提案する。
提案手法は,まずラベル付きデータ上でSOMを訓練し,最小限のラベル付きデータポイントをキーベストマッチングユニット(BMU)に割り当てる。
提案した最小教師付きモデルが従来の回帰手法を大幅に上回ることを示す。
論文 参考訳(メタデータ) (2024-01-12T22:51:48Z) - Fully Linear Graph Convolutional Networks for Semi-Supervised Learning
and Clustering [13.19688594704988]
FLGCはグラフ構造化データと正規データの両方を扱うのに強力であることを示す。
また、FLGCは非ユークリッド領域における古典線型モデルの自然な一般化として作用することを示す。
論文 参考訳(メタデータ) (2021-11-15T17:45:09Z) - Unfolding Projection-free SDP Relaxation of Binary Graph Classifier via
GDPA Linearization [59.87663954467815]
アルゴリズムの展開は、モデルベースのアルゴリズムの各イテレーションをニューラルネットワーク層として実装することにより、解釈可能で類似のニューラルネットワークアーキテクチャを生成する。
本稿では、Gershgorin disc perfect alignment (GDPA)と呼ばれる最近の線形代数定理を利用して、二進グラフの半定値プログラミング緩和(SDR)のためのプロジェクションフリーアルゴリズムをアンロールする。
実験結果から,我々の未学習ネットワークは純粋モデルベースグラフ分類器よりも優れ,純粋データ駆動ネットワークに匹敵する性能を示したが,パラメータははるかに少なかった。
論文 参考訳(メタデータ) (2021-09-10T07:01:15Z) - Edge Federated Learning Via Unit-Modulus Over-The-Air Computation
(Extended Version) [64.76619508293966]
本稿では,効率の良いエッジフェデレーション学習を実現するために,UM-AirCompフレームワークを提案する。
ローカルモデルパラメータを同時にアップロードし、アナログビームフォーミングを通じてグローバルモデルパラメータを更新する。
車両間自動運転シミュレーションプラットフォームにおけるUM-AirCompの実装を実演する。
論文 参考訳(メタデータ) (2021-01-28T15:10:22Z) - Memory and Computation-Efficient Kernel SVM via Binary Embedding and
Ternary Model Coefficients [18.52747917850984]
カーネル近似はカーネルSVMのトレーニングと予測のスケールアップに広く用いられている。
メモリ制限されたデバイスにデプロイしたい場合、カーネル近似モデルのメモリと計算コストはまだ高すぎる。
本稿では,バイナリ埋め込みとバイナリモデル係数を用いて,新しいメモリと計算効率の高いカーネルSVMモデルを提案する。
論文 参考訳(メタデータ) (2020-10-06T09:41:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。