論文の概要: GEMSS: A Variational Bayesian Method for Discovering Multiple Sparse Solutions in Classification and Regression Problems
- arxiv url: http://arxiv.org/abs/2602.08913v1
- Date: Mon, 09 Feb 2026 17:13:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-10 20:26:25.390926
- Title: GEMSS: A Variational Bayesian Method for Discovering Multiple Sparse Solutions in Classification and Regression Problems
- Title(参考訳): GEMSS: 分類と回帰問題における複数スパース解の変分ベイズ法
- Authors: Kateřina Henclová, Václav Šmídl,
- Abstract要約: 本稿では,多種多様な特徴の組み合わせを同時に発見するために特別に設計された変分ベイズフレームワークであるGEMSSを提案する。
本手法は, 分類および回帰作業にまたがる128種類の合成実験を含む総合的なベンチマークで検証した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Selecting interpretable feature sets in underdetermined ($n \ll p$) and highly correlated regimes constitutes a fundamental challenge in data science, particularly when analyzing physical measurements. In such settings, multiple distinct sparse subsets may explain the response equally well. Identifying these alternatives is crucial for generating domain-specific insights into the underlying mechanisms, yet conventional methods typically isolate a single solution, obscuring the full spectrum of plausible explanations. We present GEMSS (Gaussian Ensemble for Multiple Sparse Solutions), a variational Bayesian framework specifically designed to simultaneously discover multiple, diverse sparse feature combinations. The method employs a structured spike-and-slab prior for sparsity, a mixture of Gaussians to approximate the intractable multimodal posterior, and a Jaccard-based penalty to further control solution diversity. Unlike sequential greedy approaches, GEMSS optimizes the entire ensemble of solutions within a single objective function via stochastic gradient descent. The method is validated on a comprehensive benchmark comprising 128 synthetic experiments across classification and regression tasks. Results demonstrate that GEMSS scales effectively to high-dimensional settings ($p=5000$) with sample size as small as $n = 50$, generalizes seamlessly to continuous targets, handles missing data natively, and exhibits remarkable robustness to class imbalance and Gaussian noise. GEMSS is available as a Python package 'gemss' at PyPI. The full GitHub repository at https://github.com/kat-er-ina/gemss/ also includes a free, easy-to-use application suitable for non-coders.
- Abstract(参考訳): 解釈可能な特徴集合を過小評価(n \ll p$)で選択することは、特に物理測定の分析において、データサイエンスにおける根本的な課題となっている。
このような設定では、複数の異なるスパース部分集合が応答を同じようにうまく説明することができる。
これらの選択肢を同定することは、基礎となるメカニズムに関するドメイン固有の洞察を生成するために重要であるが、従来の手法では、通常は単一の解を分離し、実証可能な説明の完全なスペクトルを隠蔽する。
GEMSS(Gaussian Ensemble for Multiple Sparse Solutions)は,多種多様な特徴の組み合わせを同時に発見するための変分ベイズフレームワークである。
この方法は、スパーシリティに先立って構造化されたスパイク・アンド・スラブ、難解なマルチモーダル後部を近似するガウスの混合、解の多様性をさらに制御するためにジャカードに基づくペナルティを用いる。
シーケンシャルグリーディアプローチとは異なり、GEMSSは確率勾配勾配による1つの目的関数内の解の集合全体を最適化する。
本手法は, 分類および回帰作業にまたがる128種類の合成実験を含む総合的なベンチマークで検証した。
その結果、GEMSSは、サンプルサイズが$n=50$の高次元設定(p=5000$)に効果的にスケールし、連続目標にシームレスに一般化し、欠落したデータをネイティブに処理し、クラス不均衡やガウスノイズに対する顕著な堅牢性を示す。
GEMSSはPythonパッケージの'gemss'としてPyPIで利用可能である。
https://github.com/kat-er-ina/gemss/のGitHubリポジトリには、非コーダに適した無償で使いやすいアプリケーションも含まれている。
関連論文リスト
- Go With the Flow: Fast Diffusion for Gaussian Mixture Models [13.836464287004505]
シュロディンガーブリッジ (Schrodinger Bridges, SBs) は、有限時間で操る拡散過程であり、与えられた初期分布を、適切なコスト関数を最小化する。
そこで本研究では,低次元の問題を解決するための一組の実行可能なポリシーの解析的パラメトリゼーションを提案する。
本稿では,オートエンコーダの空間における画像から潜時変換,マルチマージ運動量SBを用いた細胞動態の学習など,低次元問題におけるこのアプローチの可能性を示す。
論文 参考訳(メタデータ) (2024-12-12T08:40:22Z) - SGBA: Semantic Gaussian Mixture Model-Based LiDAR Bundle Adjustment [24.92338138193458]
LiDARバンドル調整(BA)は、フロントエンドからのポーズ推定におけるドリフトを減らす効果的なアプローチである。
SGBAは,環境を事前定義された特徴型を伴わない意味ガウス混合モデル(GMM)としてモデル化するLiDAR BAスキームである。
我々は様々な実験を行い、SGBAが正確で頑健なポーズ改善を達成できることを実証した。
論文 参考訳(メタデータ) (2024-10-02T14:57:07Z) - Fast Semisupervised Unmixing Using Nonconvex Optimization [80.11512905623417]
半/ライブラリベースのアンミックスのための新しい凸凸モデルを提案する。
スパース・アンミキシングの代替手法の有効性を実証する。
論文 参考訳(メタデータ) (2024-01-23T10:07:41Z) - SIGMA: Scale-Invariant Global Sparse Shape Matching [50.385414715675076]
非剛体形状の正確なスパース対応を生成するための新しい混合整数プログラミング(MIP)法を提案する。
いくつかの挑戦的な3Dデータセットに対して,スパースな非剛性マッチングの最先端結果を示す。
論文 参考訳(メタデータ) (2023-08-16T14:25:30Z) - Multi-block-Single-probe Variance Reduced Estimator for Coupled
Compositional Optimization [49.58290066287418]
構成問題の複雑さを軽減するために,MSVR (Multi-block-probe Variance Reduced) という新しい手法を提案する。
本研究の結果は, 試料の複雑さの順序や強靭性への依存など, 様々な面で先行して改善された。
論文 参考訳(メタデータ) (2022-07-18T12:03:26Z) - Random Manifold Sampling and Joint Sparse Regularization for Multi-label
Feature Selection [0.0]
本稿では,$ell_2,1$および$ell_F$正規化の連立制約付き最適化問題を解くことで,最も関連性の高いいくつかの特徴を得ることができる。
実世界のデータセットの比較実験により,提案手法が他の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2022-04-13T15:06:12Z) - Improving the Sample-Complexity of Deep Classification Networks with
Invariant Integration [77.99182201815763]
変換によるクラス内分散に関する事前知識を活用することは、ディープニューラルネットワークのサンプル複雑性を改善するための強力な方法である。
そこで本研究では,アプリケーションの複雑な問題に対処するために,プルーニング法に基づく新しい単項選択アルゴリズムを提案する。
本稿では,Rotated-MNIST,SVHN,CIFAR-10データセットにおけるサンプルの複雑さの改善について述べる。
論文 参考訳(メタデータ) (2022-02-08T16:16:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。