論文の概要: An Improved Boosted DC Algorithm for Nonsmooth Functions with Applications in Image Recovery
- arxiv url: http://arxiv.org/abs/2602.04237v1
- Date: Wed, 04 Feb 2026 05:54:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-05 19:45:11.390298
- Title: An Improved Boosted DC Algorithm for Nonsmooth Functions with Applications in Image Recovery
- Title(参考訳): 非平滑関数に対する改善された強化直流アルゴリズムと画像復元への応用
- Authors: ZeYu Li, Te Qi, TieYong Zeng,
- Abstract要約: 本研究では,非滑らか・非収束問題に対して,凸関数アルゴリズム(BDCA)の高次差分を求める手法を提案する。
In the application of IBDCA in image recovery showed the effective of our method。
- 参考スコア(独自算出の注目度): 28.78700092873837
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a new approach to perform the boosted difference of convex functions algorithm (BDCA) on non-smooth and non-convex problems involving the difference of convex (DC) functions. The recently proposed BDCA uses an extrapolation step from the point computed by the classical DC algorithm (DCA) via a line search procedure in a descent direction to get an additional decrease of the objective function and accelerate the convergence of DCA. However, when the first function in DC decomposition is non-smooth, the direction computed by BDCA can be ascent and a monotone line search cannot be performed. In this work, we proposed a monotone improved boosted difference of convex functions algorithm (IBDCA) for certain types of non-smooth DC programs, namely those that can be formulated as the difference of a possibly non-smooth function and a smooth one. We show that any cluster point of the sequence generated by IBDCA is a critical point of the problem under consideration and that the corresponding objective value is monotonically decreasing and convergent. We also present the global convergence and the convergent rate under the Kurdyka-Lojasiewicz property. The applications of IBDCA in image recovery show the effectiveness of our proposed method. The corresponding numerical experiments demonstrate that our IBDCA outperforms DCA and other state-of-the-art DC methods in both computational time and number of iterations.
- Abstract(参考訳): 本稿では, 凸関数の差分を含む非滑らかおよび非凸問題に対して, 凸関数アルゴリズム(BDCA)の高次差分を行うための新しい手法を提案する。
最近提案されたBDCAは、古典的DCアルゴリズム(DCA)によって計算された点から降下方向のラインサーチ手順を介して外挿ステップを使用して、目的関数のさらなる減少とDCAの収束を加速する。
しかし、直流分解における第1の関数が非滑らかである場合、BDCAによって計算された方向を上昇させることができ、単調線探索を行うことができない。
本研究では,ある種の非滑らかなDCプログラム,すなわち非滑らかな関数と滑らかな関数の差として定式化できるコンベックス関数アルゴリズム(IBDCA)を改良したモノトーンを提案する。
IBDCAによって生成されたシーケンスの任意のクラスタポイントが、検討中の問題の臨界点であり、対応する目的値が単調に減少し収束していることを示す。
また、クルディカ・ロジャシエヴィチ性質の下での大域収束と収束率を示す。
In the application of IBDCA in image recovery showed the effective of our method。
IBDCAはDCAや他の最先端DC法よりも計算時間と反復回数の両方で優れていることを示す。
関連論文リスト
- Decomposed Global Optimization for Robust Point Matching with Low-Dimensional Branching [41.05165517541873]
部分重なり合う点集合を整列する新しい大域的最適化手法を提案する。
本手法は非剛性変形, 位置雑音, 外れ値に優れた強靭性を示す。
2次元および3次元合成および実世界のデータを用いた実験により,本手法は最先端の手法と比較して,外れ値に対して優れた強靭性を示すことが示された。
論文 参考訳(メタデータ) (2024-05-14T13:28:57Z) - Difference of Submodular Minimization via DC Programming [3.970829316359541]
2つのサブモジュール(DS)関数の差を最小化することは、様々な機械学習問題に自然に発生する。
DC問題に対する古典的アルゴリズムはDCアルゴリズム (DCA) と呼ばれる。
DS最小化に対応するDCプログラムに適用したDCAの変種とその完全形(CDCA)を紹介する。
論文 参考訳(メタデータ) (2023-05-18T15:39:02Z) - An inexact LPA for DC composite optimization and application to matrix completions with outliers [7.8086907734474345]
非滑らか成分による複合最適化問題のクラス。
提案したiLPAは、外れ値と非一様サンプリングを持つロバストな分解モデル行列に適用される。
論文 参考訳(メタデータ) (2023-03-29T16:15:34Z) - An Accelerated Doubly Stochastic Gradient Method with Faster Explicit
Model Identification [97.28167655721766]
本稿では、分散正規化損失最小化問題に対する2倍加速勾配降下法(ADSGD)を提案する。
まず、ADSGDが線形収束率を達成でき、全体的な計算複雑性を低減できることを示す。
論文 参考訳(メタデータ) (2022-08-11T22:27:22Z) - Fixed-Point Automatic Differentiation of Forward--Backward Splitting Algorithms for Partly Smooth Functions [4.389150156866014]
近位分割アルゴリズムの固定点反復にインプリシット(ID)と自動微分(AD)を適用する。
これらのアルゴリズムによって生成される列のADが解写像の微分に収束することを示す。
FPAD(Fixed-Point Automatic Differentiation)と呼ばれる自動微分の変種については、逆モードADのメモリオーバーヘッド問題を改善する。
論文 参考訳(メタデータ) (2022-08-05T11:27:55Z) - Large-scale Optimization of Partial AUC in a Range of False Positive
Rates [51.12047280149546]
ROC曲線 (AUC) の下の領域は、機械学習において最も広く使われている分類モデルのパフォーマンス指標の1つである。
近年の封筒平滑化技術に基づく効率的な近似勾配降下法を開発した。
提案アルゴリズムは,効率のよい解法を欠くランク付けされた範囲損失の和を最小化するためにも利用できる。
論文 参考訳(メタデータ) (2022-03-03T03:46:18Z) - Differentiable Annealed Importance Sampling and the Perils of Gradient
Noise [68.44523807580438]
Annealed importance sample (AIS) と関連するアルゴリズムは、限界推定のための非常に効果的なツールである。
差別性は、目的として限界確率を最適化する可能性を認めるため、望ましい性質である。
我々はメトロポリス・ハスティングスのステップを放棄して微分可能アルゴリズムを提案し、ミニバッチ計算をさらに解き放つ。
論文 参考訳(メタデータ) (2021-07-21T17:10:14Z) - A Refined Inertial DCA for DC Programming [0.0]
目的関数がレベル境界である定常型(dc)プログラミング問題を考える。
古典的なDCアルゴリズム(DCA)は、ある種の問題を解決することで知られており、臨界点を返す。
そこで本研究では,2つの改良型DCA(RInDCA)を提案する。
論文 参考訳(メタデータ) (2021-04-30T04:21:57Z) - Hybrid Trilinear and Bilinear Programming for Aligning Partially
Overlapping Point Sets [85.71360365315128]
多くの応用において、部分重なり合う点集合が対応するRPMアルゴリズムに不変であるようなアルゴリズムが必要である。
まず、目的が立方体有界関数であることを示し、次に、三線型および双線型単相変換の凸エンベロープを用いて、その下界を導出する。
次に、変換変数上の分岐のみを効率よく実行するブランチ・アンド・バウンド(BnB)アルゴリズムを開発する。
論文 参考訳(メタデータ) (2021-01-19T04:24:23Z) - Cogradient Descent for Bilinear Optimization [124.45816011848096]
双線形問題に対処するために、CoGDアルゴリズム(Cogradient Descent Algorithm)を導入する。
一方の変数は、他方の変数との結合関係を考慮し、同期勾配降下をもたらす。
本アルゴリズムは,空間的制約下での1変数の問題を解くために応用される。
論文 参考訳(メタデータ) (2020-06-16T13:41:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。