論文の概要: On the Optimization of Margin Distribution
- arxiv url: http://arxiv.org/abs/2204.14118v1
- Date: Fri, 29 Apr 2022 14:11:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-02 21:13:54.499338
- Title: On the Optimization of Margin Distribution
- Title(参考訳): マージン分布の最適化について
- Authors: Meng-Zhang Qian and Zheng Ai and Teng Zhang and Wei Gao
- Abstract要約: マージン分布に強く関係する新しい一般化誤差境界を提供する。
理論的な知見に触発されて,より優れた性能を実現するための効率的な手法であるMSVMAvを提案する。
- 参考スコア(独自算出の注目度): 11.018480332050679
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Margin has played an important role on the design and analysis of learning
algorithms during the past years, mostly working with the maximization of the
minimum margin. Recent years have witnessed the increasing empirical studies on
the optimization of margin distribution according to different statistics such
as medium margin, average margin, margin variance, etc., whereas there is a
relative paucity of theoretical understanding. In this work, we take one step
on this direction by providing a new generalization error bound, which is
heavily relevant to margin distribution by incorporating ingredients such as
average margin and semi-variance, a new margin statistics for the
characterization of margin distribution. Inspired by the theoretical findings,
we propose the MSVMAv, an efficient approach to achieve better performance by
optimizing margin distribution in terms of its empirical average margin and
semi-variance. We finally conduct extensive experiments to show the superiority
of the proposed MSVMAv approach.
- Abstract(参考訳): マージンは過去数年間、学習アルゴリズムの設計と分析において重要な役割を果たしており、主に最小マージンの最大化に取り組んでいる。
近年, 中辺, 平均辺縁, 辺縁分散など, 異なる統計値に基づいて, マージン分布の最適化に関する実証的研究が増加しているのに対して, 理論的理解の比較的容易性がある。
本研究では, 平均マージンや半分散といった材料を組み込むことにより, マージン分布に深く関係する新たな一般化誤差境界, マージン分布のキャラクタリゼーションのための新たなマージン統計を提供することにより, この方向への一歩を踏み出す。
理論的な結果から着想を得たMSVMAvは,経験的平均マージンと半分散の観点からマージン分布を最適化し,より良い性能を実現するための効率的な手法である。
提案したMSVMAvアプローチの優位性を示すため, 広範な実験を行った。
関連論文リスト
- Distributed Markov Chain Monte Carlo Sampling based on the Alternating
Direction Method of Multipliers [143.6249073384419]
本論文では,乗算器の交互方向法に基づく分散サンプリング手法を提案する。
我々は,アルゴリズムの収束に関する理論的保証と,その最先端性に関する実験的証拠の両方を提供する。
シミュレーションでは,線形回帰タスクとロジスティック回帰タスクにアルゴリズムを配置し,その高速収束を既存の勾配法と比較した。
論文 参考訳(メタデータ) (2024-01-29T02:08:40Z) - Marginal Debiased Network for Fair Visual Recognition [59.05212866862219]
本稿では,デバイアス表現を学習するための新しい限界脱バイアスネットワーク(MDN)を提案する。
我々のMDNは、表現不足のサンプルに対して顕著な性能を達成できる。
論文 参考訳(メタデータ) (2024-01-04T08:57:09Z) - Distribution-Dependent Rates for Multi-Distribution Learning [26.38831409926518]
最近のマルチディストリビューション学習フレームワークは、環境との動的相互作用において、この目的に対処する。
我々は, MDL体制における分布依存性の保証を行い, 最適値以下の差でスケールし, その結果, 試料サイズへの依存度が向上することを示した。
適応型楽観的アルゴリズム LCB-DR を考案し,マルチアームバンディット文学における均一性と楽観的アロケーションのコントラストを反映した。
論文 参考訳(メタデータ) (2023-12-20T15:50:16Z) - Scalable Optimal Margin Distribution Machine [50.281535710689795]
ODM(Optimal margin Distribution Machine)は、新しいマージン理論に根ざした新しい統計学習フレームワークである。
本稿では,従来のODMトレーニング手法に比べて10倍近い高速化を実現するスケーラブルなODMを提案する。
論文 参考訳(メタデータ) (2023-05-08T16:34:04Z) - Optimization of Annealed Importance Sampling Hyperparameters [77.34726150561087]
Annealed Importance Smpling (AIS) は、深層生成モデルの難易度を推定するために使われる一般的なアルゴリズムである。
本稿では、フレキシブルな中間分布を持つパラメータAISプロセスを提案し、サンプリングに少ないステップを使用するようにブリッジング分布を最適化する。
我々は, 最適化AISの性能評価を行い, 深部生成モデルの限界推定を行い, 他の推定値と比較した。
論文 参考訳(メタデータ) (2022-09-27T07:58:25Z) - Score-Based Diffusion meets Annealed Importance Sampling [89.92133671626327]
Annealed Importance Smpling はいまだに限界推定の最も効果的な方法の1つである。
我々は、スコアベース生成モデルにおける最近の進歩を活用し、AIS提案の最適拡張目標分布を近似する。
論文 参考訳(メタデータ) (2022-08-16T12:13:29Z) - Fast and Efficient MMD-based Fair PCA via Optimization over Stiefel
Manifold [41.58534159822546]
本稿では,主成分分析(PCA)について,次元推定条件分布の最大誤差(MMD)を最小化するものとして定義する。
我々は最適性保証を提供し、実践的な環境で理論効果を明示的に示す。
論文 参考訳(メタデータ) (2021-09-23T08:06:02Z) - Variational Refinement for Importance Sampling Using the Forward
Kullback-Leibler Divergence [77.06203118175335]
変分推論(VI)はベイズ推論における正確なサンプリングの代替として人気がある。
重要度サンプリング(IS)は、ベイズ近似推論手順の推定を微調整し、偏りを逸脱するためにしばしば用いられる。
近似ベイズ推論のための最適化手法とサンプリング手法の新たな組み合わせを提案する。
論文 参考訳(メタデータ) (2021-06-30T11:00:24Z) - Unbiased Gradient Estimation for Distributionally Robust Learning [2.1777837784979277]
分散的に堅牢な学習(DRL)に基づく新しいアプローチを検討し、内部問題に勾配降下を適用します。
本アルゴリズムはマルチレベルモンテカルロランダム化により勾配勾配を効率的に推定する。
論文 参考訳(メタデータ) (2020-12-22T21:35:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。