論文の概要: Hadamard-Riemannian Optimization for Margin-Variance Ensemble
- arxiv url: http://arxiv.org/abs/2509.10189v1
- Date: Fri, 12 Sep 2025 12:28:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-15 16:03:08.081801
- Title: Hadamard-Riemannian Optimization for Margin-Variance Ensemble
- Title(参考訳): Hadamard-Riemannian Optimization for Margin-Variance Ensemble
- Authors: Zexu Jin,
- Abstract要約: 本稿では,損失関数に差分分散を明示的に組み込んだ新しいアンサンブル学習フレームワークを提案する。
提案手法は負の予測マージンとその分散を共同で最適化し,ロバスト性の向上と一般化性能の向上に繋がった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Ensemble learning has been widely recognized as a pivotal technique for boosting predictive performance by combining multiple base models. Nevertheless, conventional margin-based ensemble methods predominantly focus on maximizing the expected margin while neglecting the critical role of margin variance, which inherently restricts the generalization capability of the model and heightens its vulnerability to overfitting, particularly in noisy or imbalanced datasets. Additionally, the conventional approach of optimizing ensemble weights within the probability simplex often introduces computational inefficiency and scalability challenges, complicating its application to large-scale problems. To tackle these limitations, this paper introduces a novel ensemble learning framework that explicitly incorporates margin variance into the loss function. Our method jointly optimizes the negative expected margin and its variance, leading to enhanced robustness and improved generalization performance. Moreover, by reparameterizing the ensemble weights onto the unit sphere, we substantially simplify the optimization process and improve computational efficiency. Extensive experiments conducted on multiple benchmark datasets demonstrate that the proposed approach consistently outperforms traditional margin-based ensemble techniques, underscoring its effectiveness and practical utility.
- Abstract(参考訳): アンサンブル学習は,複数のベースモデルを組み合わせることで予測性能を向上させる重要な手法として広く認識されている。
それにもかかわらず、従来のマージンベースのアンサンブル法は、主に、モデルの一般化能力を本質的に制限し、特にノイズや不均衡なデータセットにおいて、その脆弱性を過度に高める、マージン分散の重要な役割を無視しながら、期待されるマージンを最大化することに焦点を当てている。
さらに、確率単純度内でアンサンブル重みを最適化する従来の手法では、計算の非効率性やスケーラビリティの問題がしばしば発生し、大規模問題への応用が複雑になる。
これらの制約に対処するために,損失関数にマージン分散を明示的に組み込んだ新しいアンサンブル学習フレームワークを提案する。
提案手法は負の予測マージンとその分散を共同で最適化し,ロバスト性の向上と一般化性能の向上に繋がる。
さらに,アンサンブル重みを単位球上に再パラメータ化することにより,最適化プロセスを大幅に単純化し,計算効率を向上する。
複数のベンチマークデータセットで実施された大規模な実験は、提案手法が従来のマージンベースのアンサンブル手法を一貫して上回り、その有効性と実用性を実証していることを示している。
関連論文リスト
- NDCG-Consistent Softmax Approximation with Accelerated Convergence [67.10365329542365]
本稿では,ランキングの指標と直接一致した新たな損失定式化を提案する。
提案したRG損失を高効率な Alternating Least Squares (ALS) 最適化手法と統合する。
実世界のデータセットに対する実証的な評価は、我々のアプローチが同等または上位のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2025-06-11T06:59:17Z) - Robust and Computation-Aware Gaussian Processes [18.264598332579748]
本稿では,近似による不確実性の原理的処理と強一般化ベイズ更新を組み合わせた新しいGPモデルであるRobust Computation-Aware Gaussian Process (RCaGP)を紹介する。
私たちのモデルは、より保守的で信頼性の高い不確実性評価を確実にします。
実験の結果、これらの課題を共同で解決することで、クリーンな設定とアウターな設定の両方で優れたパフォーマンスが得られることが確認された。
論文 参考訳(メタデータ) (2025-05-27T12:49:14Z) - Tuning for Trustworthiness -- Balancing Performance and Explanation Consistency in Neural Network Optimization [49.567092222782435]
我々は,異なる特徴帰属法間の合意として定義された,XAI整合性という新しい概念を紹介する。
予測性能と説明のバランスをとる多目的最適化フレームワークを構築した。
本研究は、トレードオフゾーンバランス性能損失とXAI整合性による強靭性向上のモデルについて、今後の研究基盤を提供する。
論文 参考訳(メタデータ) (2025-05-12T13:19:14Z) - A Novel Unified Parametric Assumption for Nonconvex Optimization [53.943470475510196]
非最適化は機械学習の中心であるが、一般の非凸性は弱い収束を保証するため、他方に比べて悲観的すぎる。
非凸アルゴリズムに新しい統一仮定を導入する。
論文 参考訳(メタデータ) (2025-02-17T21:25:31Z) - Learning Dynamic Representations via An Optimally-Weighted Maximum Mean Discrepancy Optimization Framework for Continual Learning [16.10753846850319]
継続的な学習は、モデルを永続的に取得し、保持することを可能にする。
悲惨な忘れ物は モデルパフォーマンスを著しく損なう
本稿では,表現変更に対する罰則を課す,OPMMD(Optimally-Weighted Mean Discrepancy)と呼ばれる新しいフレームワークを紹介する。
論文 参考訳(メタデータ) (2025-01-21T13:33:45Z) - Robust PCA Based on Adaptive Weighted Least Squares and Low-Rank Matrix Factorization [2.983818075226378]
本稿では,初期コンポーネント不安定時の適応重み係数更新を統合する新しいRPCAモデルを提案する。
提案手法は既存の非インスパイアされた正規化手法よりも優れた性能と効率を提供する。
論文 参考訳(メタデータ) (2024-12-19T08:31:42Z) - Stochastic interior-point methods for smooth conic optimization with applications [3.294420397461204]
一般円錐最適化のためのインテリアポイント法を4つの新しいSIPM変種とともに導入する。
未熟な仮定の下では、提案したSIPMの複雑さを確立し、これは多対数係数まで、制約のない最適化の最良の結果と一致する。
頑健な線形回帰、マルチタスク関係学習、クラスタリングデータストリームの実験は、我々のアプローチの有効性と効率を実証している。
論文 参考訳(メタデータ) (2024-12-17T15:06:44Z) - Backpropagation of Unrolled Solvers with Folded Optimization [55.04219793298687]
ディープネットワークにおけるコンポーネントとしての制約付き最適化モデルの統合は、多くの専門的な学習タスクに有望な進歩をもたらした。
1つの典型的な戦略はアルゴリズムのアンローリングであり、これは反復解法の操作による自動微分に依存している。
本稿では,非ロール最適化の後方通過に関する理論的知見を提供し,効率よく解けるバックプロパゲーション解析モデルを生成するシステムに繋がる。
論文 参考訳(メタデータ) (2023-01-28T01:50:42Z) - Outlier-Robust Sparse Estimation via Non-Convex Optimization [73.18654719887205]
空間的制約が存在する場合の高次元統計量と非破壊的最適化の関連について検討する。
これらの問題に対する新規で簡単な最適化法を開発した。
結論として、効率よくステーションに収束する一階法は、これらのタスクに対して効率的なアルゴリズムを導出する。
論文 参考訳(メタデータ) (2021-09-23T17:38:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。