論文の概要: Sparsity via Hyperpriors: A Theoretical and Algorithmic Study under Empirical Bayes Framework
- arxiv url: http://arxiv.org/abs/2511.06235v1
- Date: Sun, 09 Nov 2025 05:27:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-11 21:18:44.82937
- Title: Sparsity via Hyperpriors: A Theoretical and Algorithmic Study under Empirical Bayes Framework
- Title(参考訳): ハイパープライアーによるスパシティ:経験的ベイズ・フレームワークに基づく理論的・アルゴリズム的研究
- Authors: Zhitao Li, Yiqiu Dong, Xueying Zeng,
- Abstract要約: 我々は超主元とスパーシティの選択と結果の解の局所最適性の間に理論的な関係を確立する。
半ラプラス(英語版)や半一般化ガウス(英語版)のような、(0,1)$のパワーを持つ超プライマーが厳格に増加することを示し、ポーシャリティを効果的に促進し、解安定性を向上させる。
- 参考スコア(独自算出の注目度): 2.043947513315766
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents a comprehensive analysis of hyperparameter estimation within the empirical Bayes framework (EBF) for sparse learning. By studying the influence of hyperpriors on the solution of EBF, we establish a theoretical connection between the choice of the hyperprior and the sparsity as well as the local optimality of the resulting solutions. We show that some strictly increasing hyperpriors, such as half-Laplace and half-generalized Gaussian with the power in $(0,1)$, effectively promote sparsity and improve solution stability with respect to measurement noise. Based on this analysis, we adopt a proximal alternating linearized minimization (PALM) algorithm with convergence guaranties for both convex and concave hyperpriors. Extensive numerical tests on two-dimensional image deblurring problems demonstrate that introducing appropriate hyperpriors significantly promotes the sparsity of the solution and enhances restoration accuracy. Furthermore, we illustrate the influence of the noise level and the ill-posedness of inverse problems to EBF solutions.
- Abstract(参考訳): 本稿では,スパース学習のための経験的ベイズフレームワーク(EBF)におけるハイパーパラメータ推定の包括的解析について述べる。
EBFの解に対する超プライアの影響を研究することにより、超プライアの選択とスパーシティの理論的関係、および結果の解の局所最適性を確立する。
半ラプラスや半一般化されたガウス的(0,1)=============================================================================================================================================
この分析に基づいて,凸と凹凸の両方に収束関数を持つ近似交互線形化最小化(PALM)アルゴリズムを採用する。
2次元画像劣化問題に対する広範囲な数値実験により, 適切なハイパープライヤの導入は解の空間性を大幅に促進し, 復元精度を向上することが示された。
さらに, 逆問題に対するノイズレベルの影響と, 逆問題に対するEBFソリューションの悪影響について述べる。
関連論文リスト
- SPREAD: Sampling-based Pareto front Refinement via Efficient Adaptive Diffusion [0.8594140167290097]
SPREADは拡散確率モデル(DDPM)に基づく生成フレームワークである
決定空間からサンプリングされた点上の条件拡散過程を学習する。
適応的多重勾配降下インスパイアされた更新を高速収束に利用するサンプリングスキームにより、候補を洗練する。
論文 参考訳(メタデータ) (2025-09-25T12:09:37Z) - Stability and Generalization of the Decentralized Stochastic Gradient
Descent Ascent Algorithm [80.94861441583275]
本稿では,分散勾配勾配(D-SGDA)アルゴリズムの一般化境界の複雑さについて検討する。
本研究は,D-SGDAの一般化における各因子の影響を解析した。
また、最適凸凹設定を得るために一般化とバランスをとる。
論文 参考訳(メタデータ) (2023-10-31T11:27:01Z) - A Deep Unrolling Model with Hybrid Optimization Structure for Hyperspectral Image Deconvolution [50.13564338607482]
本稿では,DeepMixと呼ばれるハイパースペクトルデコンボリューション問題に対する新しい最適化フレームワークを提案する。
これは3つの異なるモジュール、すなわちデータ一貫性モジュール、手作りの正規化器の効果を強制するモジュール、および装飾モジュールで構成されている。
本研究は,他のモジュールの協調作業によって達成される進歩を維持するために設計された,文脈を考慮した認知型モジュールを提案する。
論文 参考訳(メタデータ) (2023-06-10T08:25:16Z) - Federated Compositional Deep AUC Maximization [58.25078060952361]
本研究では,曲線(AUC)のスコアを直接最適化することにより,不均衡なデータに対する新しいフェデレート学習法を開発した。
私たちの知る限りでは、このような好ましい理論的な結果を達成した最初の作品である。
論文 参考訳(メタデータ) (2023-04-20T05:49:41Z) - Decentralized Personalized Federated Learning for Min-Max Problems [79.61785798152529]
本稿では,より広い範囲の最適化問題を含むサドル点問題に対して,PFLを初めて検討した。
この問題に対処するための新しいアルゴリズムを提案し、滑らかな(強く)凸-(強く)凹点問題を理論的に解析する。
両線形問題に対する数値実験と, 対向雑音を有するニューラルネットワークは, 提案手法の有効性を実証する。
論文 参考訳(メタデータ) (2021-06-14T10:36:25Z) - On Centralized and Distributed Mirror Descent: Exponential Convergence
Analysis Using Quadratic Constraints [8.336315962271396]
ミラー降下(MD)は、勾配降下(GD)を含むいくつかのアルゴリズムを仮定する強力な一階最適化手法である。
本研究では,強い凸と滑らかな問題に対して,集中型および分散型のMDの正確な収束率について検討した。
論文 参考訳(メタデータ) (2021-05-29T23:05:56Z) - Convergence Properties of Stochastic Hypergradients [34.81849268839475]
大規模データセットにおける低レベルの問題が経験的リスクである場合に重要となる過勾配の近似スキームについて検討する。
本研究では,理論解析を支援する数値実験を行い,実際にハイパーグラディエントを用いることの利点を示す。
論文 参考訳(メタデータ) (2020-11-13T20:50:36Z) - Stabilizing Bi-Level Hyperparameter Optimization using Moreau-Yosida
Regularization [9.377434656823109]
本研究は,Moreau-Yosidaエンベロープを用いてバイレベルHPOソルバの収束挙動を安定化することを提案する。
本稿では,Moreau-Yosida regularized Hyperparameter Optimization (MY-HPO)アルゴリズムを提案する。
その結果, 最先端の2レベルHPOソルバと比較して, 固定予算における損失値の大幅な改善が認められた。
論文 参考訳(メタデータ) (2020-07-27T06:47:35Z) - Fast Objective & Duality Gap Convergence for Non-Convex Strongly-Concave
Min-Max Problems with PL Condition [52.08417569774822]
本稿では,深層学習(深層AUC)により注目度が高まっている,円滑な非凹部min-max問題の解法に焦点をあてる。
論文 参考訳(メタデータ) (2020-06-12T00:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。