論文の概要: Global Truncated Loss Minimization for Robust and Threshold-Resilient Geometric Estimation
- arxiv url: http://arxiv.org/abs/2603.14796v1
- Date: Mon, 16 Mar 2026 03:51:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 16:19:36.03708
- Title: Global Truncated Loss Minimization for Robust and Threshold-Resilient Geometric Estimation
- Title(参考訳): ロバストおよび閾値-弾性幾何推定のための大域的縮減損失最小化
- Authors: Tianyu Huang, Liangzu Peng, Xinyue Zhang, Tongfan Guan, Jinhu Dong, Haoang Li, Laurent Kneip, Yun-Hui Liu,
- Abstract要約: 多様な幾何学的問題にまたがるグローバル最適TL損失に対する統合BnBベースのフレームワークを提案する。
GTMは(n-1)次元の部分空間上のBnB探索を行い、残りの1D変数は目的関数を有界にすることで解決する。
大規模な実験により、GTMは最先端のアウリエ・ロバスト性およびしきい値抵抗性を達成することが実証された。
- 参考スコア(独自算出の注目度): 40.881250104159896
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: To achieve outlier-robust geometric estimation, robust objective functions are generally employed to mitigate the influence of outliers. The widely used consensus maximization(CM) is highly robust when paired with global branch-and-bound(BnB) search. However, CM relies solely on inlier counts and is sensitive to the inlier threshold. Besides, the discrete nature of CM leads to loose bounds, necessitating extensive BnB iterations and computation cost. Truncated losses(TL), another continuous alternative, leverage residual information more effectively and could potentially overcome these issues. But to our knowledge, no prior work has systematically explored globally minimizing TL with BnB and its potential for enhanced threshold resilience or search efficiency. In this work, we propose GTM, the first unified BnB-based framework for globally-optimal TL loss minimization across diverse geometric problems. GTM involves a hybrid solving design: given an n-dimensional problem, it performs BnB search over an (n-1)-dimensional subspace while the remaining 1D variable is solved by bounding the objective function. Our hybrid design not only reduces the search space, but also enables us to derive Lipschitz-continuous bounding functions that are general, tight, and can be efficiently solved by a classic global Lipschitz solver named DIRECT, which brings further acceleration. We conduct a systematic evaluation on various BnB-based methods for CM and TL on the robust linear regression problem, showing that GTM enjoys remarkable threshold resilience and the highest efficiency compared to baseline methods. Furthermore, we apply GTM on different geometric estimation problems with diverse residual forms. Extensive experiments demonstrate that GTM achieves state-of-the-art outlier-robustness and threshold-resilience while maintaining high efficiency across these estimation tasks.
- Abstract(参考訳): 外乱の幾何学的推定を達成するために、外乱の影響を軽減するために、一般に頑健な客観的関数が用いられる。
広く使われているコンセンサス最大化(CM)は、グローバルブランチ・アンド・バウンド(BnB)探索と組み合わせて非常に堅牢である。
しかし、CMは入射数のみに依存しており、入射閾値に敏感である。
さらに、CMの離散的な性質は、ゆるやかな境界をもたらし、広範囲なBnBイテレーションと計算コストを必要とする。
別の連続的な代替手段であるTrncated Loss(TL)は、残余情報をより効果的に活用し、これらの問題を克服する可能性がある。
しかし、我々の知る限り、TLをBnBで最小化することと、しきい値のレジリエンスや探索効率を高める可能性について、これまでの研究は体系的に研究されていない。
本稿では,多種多様な幾何学的問題に対するグローバル最適TL損失最小化のための,最初の統合BnBベースのフレームワークであるGTMを提案する。
GTMは、n次元の問題を与えられたとき、(n-1)次元の部分空間上のBnB探索を行い、残りの1D変数は目的関数を有界にすることで解決する。
我々のハイブリッド設計は、探索空間を縮小するだけでなく、一般かつ厳密なリプシッツ連続有界関数を導出し、DIRECTと呼ばれる古典的グローバルリプシッツ解法によって効率的に解ける。
本稿では, 線形回帰問題に対して, CM と TL の様々な BnB 法を体系的に評価し, GTM は基準法と比較して, 顕著なしきい値レジリエンスと高い効率を享受していることを示す。
さらに,各形状の異なる幾何推定問題に対して,GTMを適用した。
広範囲な実験により、GTMは、これらの推定タスク全体にわたって高い効率を維持しながら、最先端のアウリエ・ロバスト性およびしきい値レジリエンスを達成することが実証された。
関連論文リスト
- Revisiting Weighted Strategy for Non-stationary Parametric Bandits and MDPs [56.246783503873225]
本稿では,非定常パラメトリックバンディットの重み付け戦略を再考する。
本稿では,ウィンドウ/リスタートベースアルゴリズムと同様に,より単純な重みに基づくアルゴリズムを提案する。
我々のフレームワークは、他のパラメトリックバンディットの後悔の限界を改善するのに使える。
論文 参考訳(メタデータ) (2026-01-03T04:50:21Z) - Don't Be Greedy, Just Relax! Pruning LLMs via Frank-Wolfe [61.68406997155879]
State-of-the-art Large Language Model (LLM) プルーニング手法は階層的に動作し、階層ごとのプルーニングエラーを最小限に抑え、完全な再トレーニングを回避する。
既存の手法は、刈り上げ対象の重量相互作用を無視する欲求凸に依存する。
提案手法は, 層ごとのプルーニング誤差を大幅に低減し, 最先端のGPTアーキテクチャにおいて高いベースラインを達成し, メモリ効率を保っている。
論文 参考訳(メタデータ) (2025-10-15T16:13:44Z) - Boundary-Guided Policy Optimization for Memory-efficient RL of Diffusion Large Language Models [53.339700196282905]
大きな言語モデル(dLLM)に強化学習を適用する上で重要な課題は、その可能性関数の抽出性である。
本稿では,ELBOに基づく目的の特別に構築された下界を最大化するメモリ効率のRLアルゴリズムを提案する。
実験によると、BGPOは数学の問題解決、コード生成、計画タスクにおいて、dLLMの以前のRLアルゴリズムよりも大幅に優れていた。
論文 参考訳(メタデータ) (2025-10-13T17:47:50Z) - NDCG-Consistent Softmax Approximation with Accelerated Convergence [67.10365329542365]
本稿では,ランキングの指標と直接一致した新たな損失定式化を提案する。
提案したRG損失を高効率な Alternating Least Squares (ALS) 最適化手法と統合する。
実世界のデータセットに対する実証的な評価は、我々のアプローチが同等または上位のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2025-06-11T06:59:17Z) - A Piecewise Lyapunov Analysis of Sub-quadratic SGD: Applications to Robust and Quantile Regression [22.917692982875025]
一階微分しか持たない関数を$f$で扱える新しいLyapunov関数を導入する。
一般の減少段数と定数段数の下で有限時間モーメント境界を導出する。
我々の結果は、特にオンライン統計手法に広く応用されている。
論文 参考訳(メタデータ) (2025-04-11T00:20:37Z) - An Accelerated Alternating Partial Bregman Algorithm for ReLU-based Matrix Decomposition [0.0]
本稿では,非負行列上に補正されたスパース低ランク特性について検討する。
本稿では,クラスタリングと圧縮タスクに有用な構造を取り入れた新しい正規化項を提案する。
我々は、任意の$Lge 1$に対して常に持つ$L$-smoothプロパティを維持しながら、対応する閉形式解を導出する。
論文 参考訳(メタデータ) (2025-03-04T08:20:34Z) - A Stochastic Approach to Bi-Level Optimization for Hyperparameter Optimization and Meta Learning [74.80956524812714]
我々は,現代のディープラーニングにおいて広く普及している一般的なメタ学習問題に対処する。
これらの問題は、しばしばBi-Level Optimizations (BLO)として定式化される。
我々は,与えられたBLO問題を,内部損失関数が滑らかな分布となり,外損失が内部分布に対する期待損失となるようなii最適化に変換することにより,新たな視点を導入する。
論文 参考訳(メタデータ) (2024-10-14T12:10:06Z) - Global Convergence of Sub-gradient Method for Robust Matrix Recovery:
Small Initialization, Noisy Measurements, and Over-parameterization [4.7464518249313805]
サブグラディエント法(Sub-gradient method, SubGM)は, 限られた測定値から低ランク行列を復元するために用いられる。
我々は、SubGMが任意の大きさの高密度ノイズ値の下でも、真の解に収束することを示す。
論文 参考訳(メタデータ) (2022-02-17T17:50:04Z) - Continuous Profit Maximization: A Study of Unconstrained Dr-submodular
Maximization [4.649999862713523]
我々は、整数格子上の領域である連続利益(CPM-MS)問題を形成する。
格子に基づく二重グリードアルゴリズムを導入し, 定数近似を求める。
本稿では,格子型反復プルーニング手法を提案し,探索空間を効果的に縮小することができる。
論文 参考訳(メタデータ) (2020-04-12T05:35:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。