論文の概要: Efficient and Flexible Sublabel-Accurate Energy Minimization
- arxiv url: http://arxiv.org/abs/2206.09596v1
- Date: Mon, 20 Jun 2022 06:58:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-22 18:42:09.321030
- Title: Efficient and Flexible Sublabel-Accurate Energy Minimization
- Title(参考訳): 効率的でフレキシブルなサブラベル・アキュレートエネルギーの最小化
- Authors: Zhakshylyk Nurlanov, Daniel Cremers, Florian Bernard
- Abstract要約: データと滑らかさの項からなるエネルギー関数のクラスを最小化する問題に対処する。
既存の連続最適化手法は、サブラベル精度の高い解を見つけることができるが、大きなラベル空間では効率が良くない。
本稿では,連続モデルと離散モデルの両方の最適特性を利用する効率的なサブラベル精度手法を提案する。
- 参考スコア(独自算出の注目度): 62.50191141358778
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We address the problem of minimizing a class of energy functions consisting
of data and smoothness terms that commonly occur in machine learning, computer
vision, and pattern recognition. While discrete optimization methods are able
to give theoretical optimality guarantees, they can only handle a finite number
of labels and therefore suffer from label discretization bias. Existing
continuous optimization methods can find sublabel-accurate solutions, but they
are not efficient for large label spaces. In this work, we propose an efficient
sublabel-accurate method that utilizes the best properties of both continuous
and discrete models. We separate the problem into two sequential steps: (i)
global discrete optimization for selecting the label range, and (ii) efficient
continuous sublabel-accurate local refinement of a convex approximation of the
energy function in the chosen range. Doing so allows us to achieve a boost in
time and memory efficiency while practically keeping the accuracy at the same
level as continuous convex relaxation methods, and in addition, providing
theoretical optimality guarantees at the level of discrete methods. Finally, we
show the flexibility of the proposed approach to general pairwise smoothness
terms, so that it is applicable to a wide range of regularizations. Experiments
on the illustrating example of the image denoising problem demonstrate the
properties of the proposed method. The code reproducing experiments is
available at
\url{https://github.com/nurlanov-zh/sublabel-accurate-alpha-expansion}.
- Abstract(参考訳): 本稿では、機械学習、コンピュータビジョン、パターン認識によく見られるデータと滑らかさの用語からなるエネルギー関数のクラスを最小化する問題に対処する。
離散最適化法は理論的最適性を保証することができるが、有限個のラベルしか扱えないため、ラベルの離散化バイアスに悩まされる。
既存の連続最適化手法はサブラベルの精度の高い解を見つけることができるが、大きなラベル空間では効率的ではない。
本研究では,連続モデルと離散モデルの両方の最適特性を利用する効率的なサブラベル精度手法を提案する。
問題を2つのステップに分けます
(i)ラベル範囲選択のための大域的離散最適化、
(ii)選択された範囲におけるエネルギー関数の凸近似の効率的な連続部分ラベル精度の局所的洗練。
これにより、連続凸緩和法と同じレベルの精度を維持しつつ、時間とメモリ効率の向上を実現でき、さらに、離散的手法のレベルでの理論的最適性を保証することができます。
最後に、一対の滑らかさの一般項に対する提案手法の柔軟性を示し、広範囲の正規化に適用可能であることを示す。
画像デノージング問題の例を示す実験は,提案手法の特性を示すものである。
コード再現実験は \url{https://github.com/nurlanov-zh/sublabel-accurate-alpha-expansion} で利用可能である。
関連論文リスト
- S-CFE: Simple Counterfactual Explanations [21.975560789792073]
スパースデータに対する多様体対応の反実的説明を求める問題に対処する。
提案手法は,スパースかつ多様体に整列した反実的説明を効果的に生成する。
論文 参考訳(メタデータ) (2024-10-21T07:42:43Z) - Dual-Decoupling Learning and Metric-Adaptive Thresholding for Semi-Supervised Multi-Label Learning [81.83013974171364]
半教師付きマルチラベル学習(SSMLL)は、正確なマルチラベルアノテーションを収集するコストを削減するために、ラベルのないデータを活用する強力なフレームワークである。
半教師付き学習とは異なり、インスタンスに含まれる複数のセマンティクスのため、SSMLLの擬似ラベルとして最も確率の高いラベルを選択することはできない。
本稿では,高品質な擬似ラベルを生成するための二重パースペクティブ手法を提案する。
論文 参考訳(メタデータ) (2024-07-26T09:33:53Z) - Discretize Relaxed Solution of Spectral Clustering via a Non-Heuristic
Algorithm [77.53604156112144]
我々は、元の問題と離散化アルゴリズムを橋渡しする1次項を開発する。
非ヒューリスティック法は元のグラフ切断問題を認識しているため、最終的な離散解の方が信頼性が高い。
論文 参考訳(メタデータ) (2023-10-19T13:57:38Z) - Accelerated First-Order Optimization under Nonlinear Constraints [73.2273449996098]
我々は、制約付き最適化のための一階アルゴリズムと非滑らかなシステムの間で、新しい一階アルゴリズムのクラスを設計する。
これらのアルゴリズムの重要な性質は、制約がスパース変数の代わりに速度で表されることである。
論文 参考訳(メタデータ) (2023-02-01T08:50:48Z) - Optimizing Diffusion Rate and Label Reliability in a Graph-Based
Semi-supervised Classifier [2.4366811507669124]
Local and Global Consistency (LGC)アルゴリズムは、グラフベースの半教師付き半教師付き(GSSL)分類器の1つである。
ラベル付きインスタンスの自己影響を取り除くことは、どのように有用か、そして、それがアウト・ワン・アウトエラーにどのように関係するかについて議論する。
本研究では,ラベルの信頼性と拡散率を推定する手法を提案する。
論文 参考訳(メタデータ) (2022-01-10T16:58:52Z) - Sparse Quadratic Optimisation over the Stiefel Manifold with Application
to Permutation Synchronisation [71.27989298860481]
二次目的関数を最大化するスティーフェル多様体上の行列を求める非最適化問題に対処する。
そこで本研究では,支配的固有空間行列を求めるための,単純かつ効果的なスパーシティプロモーティングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-09-30T19:17:35Z) - High Probability Complexity Bounds for Non-Smooth Stochastic Optimization with Heavy-Tailed Noise [51.31435087414348]
アルゴリズムが高い確率で小さな客観的残差を与えることを理論的に保証することが不可欠である。
非滑らか凸最適化の既存の方法は、信頼度に依存した複雑性境界を持つ。
そこで我々は,勾配クリッピングを伴う2つの手法に対して,新たなステップサイズルールを提案する。
論文 参考訳(メタデータ) (2021-06-10T17:54:21Z) - Regularization in neural network optimization via trimmed stochastic
gradient descent with noisy label [2.66512000865131]
正規化は、ニューラルネットワークの最適化におけるデータトレーニングへの過度な適合を回避するために不可欠です。
ラベルノイズとトリミングの例を組み合わせた第1次最適化法(Label-Noised Trim-SGD)を提案する。
提案アルゴリズムにより,ラベルの大きいノイズを付加し,元の手法よりも優れた正規化効果が得られる。
論文 参考訳(メタデータ) (2020-12-21T01:31:53Z) - Approximate optimization of MAXCUT with a local spin algorithm [0.0]
局所テンソル法は[Hastings,arXiv: 1905.07047v2]で導入された最適化アルゴリズムのクラスである。
MAXCUT問題のインスタンス上でのベンチマーク実験により,実際の性能について検討する。
局所テンソル法による解法は,広く使用されている商用最適化パッケージの解法とは全く関係がない。
論文 参考訳(メタデータ) (2020-08-13T18:00:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。