論文の概要: Expanding boundaries of Gap Safe screening
- arxiv url: http://arxiv.org/abs/2102.10846v1
- Date: Mon, 22 Feb 2021 09:23:31 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-23 14:33:05.712294
- Title: Expanding boundaries of Gap Safe screening
- Title(参考訳): ギャップセーフスクリーニングの境界の拡大
- Authors: Cassio Dantas (IRIT-SC), Emmanuel Soubies (IRIT-SC), C\'edric
F\'evotte (IRIT-SC)
- Abstract要約: アルゴリズムの性能を高める強力な戦略は、safe screeningとして知られている。
双対コスト関数に対するグローバルな強結合性仮定を緩和することにより,既存のギャップセーフスクリーニングフレームワークを拡張する。
提案された一般的なフレームワークは、ロジスティック関数、beta = 1.5、kullback-leibler divergencesといった特別なケースで例示されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Sparse optimization problems are ubiquitous in many fields such as
statistics, signal/image processing and machine learning. This has led to the
birth of many iterative algorithms to solve them. A powerful strategy to boost
the performance of these algorithms is known as safe screening: it allows the
early identification of zero coordinates in the solution, which can then be
eliminated to reduce the problem's size and accelerate convergence. In this
work, we extend the existing Gap Safe screening framework by relaxing the
global strong-concavity assumption on the dual cost function. Instead, we
exploit local regularity properties, that is, strong concavity on well-chosen
subsets of the domain. The non-negativity constraint is also integrated to the
existing framework. Besides making safe screening possible to a broader class
of functions that includes beta-divergences (e.g., the Kullback-Leibler
divergence), the proposed approach also improves upon the existing Gap Safe
screening rules on previously applicable cases (e.g., logistic regression). The
proposed general framework is exemplified by some notable particular cases:
logistic function, beta = 1.5 and Kullback-Leibler divergences. Finally, we
showcase the effectiveness of the proposed screening rules with different
solvers (coordinate descent, multiplicative-update and proximal gradient
algorithms) and different data sets (binary classification, hyperspectral and
count data).
- Abstract(参考訳): スパース最適化問題は、統計、信号/画像処理、機械学習など、多くの分野で普遍的です。
これにより、それらを解くための多くの反復アルゴリズムが誕生しました。
これらのアルゴリズムの性能を高める強力な戦略はセーフスクリーニング(Safe screening)と呼ばれ、ソリューション内のゼロ座標の早期同定を可能にし、問題のサイズを減らし収束を加速するために排除することができる。
本研究では,二元コスト関数に対するグローバルな強結合性仮定を緩和することにより,既存のギャップセーフスクリーニングフレームワークを拡張する。
その代わり、局所正規性、すなわちドメインの well-chosen 部分集合上の強い連続性を利用する。
非負の制約も既存のフレームワークに統合される。
ベータ・ダイバージェンス(例えば、Kulback-Leiblerの発散)を含む幅広い機能に対して安全なスクリーニングを可能にすることに加えて、提案されたアプローチは、以前に適用されたケース(例えば、ロジスティック回帰)における既存のGap Safeスクリーニングルールを改善する。
提案された一般的なフレームワークは、ロジスティック関数、beta = 1.5、kullback-leibler divergencesといった特別なケースで例示されている。
最後に,異なる解法(座標降下法,乗法更新法,近距離勾配法)と異なるデータセット(バイナリ分類,ハイパースペクトル法,カウント法)を用いたスクリーニングルールの有効性を示す。
関連論文リスト
- Provably Efficient Learning in Partially Observable Contextual Bandit [4.910658441596583]
古典的帯域幅アルゴリズムの改善に因果境界をどのように適用できるかを示す。
本研究は,実世界の応用における文脈的包括的エージェントの性能を高める可能性を秘めている。
論文 参考訳(メタデータ) (2023-08-07T13:24:50Z) - A Large-scale Multiple-objective Method for Black-box Attack against
Object Detection [70.00150794625053]
我々は、真正の確率を最小化し、偽正の確率を最大化し、より多くの偽正の物体が新しい真正の有界箱を作らないようにする。
我々は、GARSDCと呼ばれるランダム・サブセット選択とディバイド・アンド・コンカーによる標準的な遺伝的アルゴリズムを拡張し、効率を大幅に改善する。
最先端攻撃法と比較して、GARSDCはmAPでは平均12.0、広範囲な実験ではクエリでは約1000倍減少する。
論文 参考訳(メタデータ) (2022-09-16T08:36:42Z) - Log Barriers for Safe Black-box Optimization with Application to Safe
Reinforcement Learning [72.97229770329214]
本稿では,学習時の安全性維持が不可欠である高次元非線形最適化問題に対する一般的なアプローチを提案する。
LBSGDと呼ばれるアプローチは、慎重に選択されたステップサイズで対数障壁近似を適用することに基づいている。
安全強化学習における政策課題の違反を最小限に抑えるためのアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2022-07-21T11:14:47Z) - On Kernelized Multi-Armed Bandits with Constraints [16.102401271318012]
一般に未知の報酬関数と一般未知の制約関数を併用した帯域幅問題について検討する。
本稿では,アルゴリズムの性能解析のための一般的なフレームワークを提案する。
本稿では,数値実験により提案アルゴリズムの優れた性能を示す。
論文 参考訳(メタデータ) (2022-03-29T14:02:03Z) - Efficient semidefinite bounds for multi-label discrete graphical models [6.226454551201676]
このようなモデルにおける主要なクエリの1つは、Posteri(MAP)ネットワークのコストに関するSDPWCSP関数を特定することである。
従来の二重化制約手法と,行ごとの更新に基づく専用SDP/Monteiroスタイルの手法を検討する。
論文 参考訳(メタデータ) (2021-11-24T13:38:34Z) - Stochastic Gradient Descent-Ascent and Consensus Optimization for Smooth
Games: Convergence Analysis under Expected Co-coercivity [49.66890309455787]
本稿では,SGDA と SCO の最終的な収束保証として,期待されるコヒーレンシティ条件を導入し,その利点を説明する。
定常的なステップサイズを用いた場合、両手法の線形収束性を解の近傍に証明する。
我々の収束保証は任意のサンプリングパラダイムの下で保たれ、ミニバッチの複雑さに関する洞察を与える。
論文 参考訳(メタデータ) (2021-06-30T18:32:46Z) - Improved Algorithms for Agnostic Pool-based Active Classification [20.12178157010804]
プールに依存しない環境でのバイナリ分類のためのアクティブラーニングを検討する。
我々のアルゴリズムは、画像分類データセットにおけるアートアクティブな学習アルゴリズムの状況よりも優れている。
論文 参考訳(メタデータ) (2021-05-13T18:24:30Z) - An Asymptotically Optimal Primal-Dual Incremental Algorithm for
Contextual Linear Bandits [129.1029690825929]
複数の次元に沿った最先端技術を改善する新しいアルゴリズムを提案する。
非文脈線形帯域の特別な場合において、学習地平線に対して最小限の最適性を確立する。
論文 参考訳(メタデータ) (2020-10-23T09:12:47Z) - Global Optimization of Objective Functions Represented by ReLU Networks [77.55969359556032]
ニューラルネットワークは複雑で非敵対的な関数を学ぶことができ、安全クリティカルな文脈でそれらの正しい振る舞いを保証することは困難である。
ネットワーク内の障害を見つけるための多くのアプローチ(例えば、敵の例)があるが、これらは障害の欠如を保証できない。
本稿では,最適化プロセスを検証手順に統合し,本手法よりも優れた性能を実現する手法を提案する。
論文 参考訳(メタデータ) (2020-10-07T08:19:48Z) - Provably Convergent Working Set Algorithm for Non-Convex Regularized
Regression [0.0]
本稿では、収束保証付き非正則正規化器のためのワーキングセットアルゴリズムを提案する。
その結果,ブロックコーディネートや勾配ソルバの完全解法と比較して高い利得を示した。
論文 参考訳(メタデータ) (2020-06-24T07:40:31Z) - Lagrangian Decomposition for Neural Network Verification [148.0448557991349]
ニューラルネットワーク検証の基本的なコンポーネントは、出力が取ることのできる値のバウンダリの計算である。
ラグランジアン分解に基づく新しい手法を提案する。
ランニングタイムのごく一部で、既成の解法に匹敵するバウンダリが得られることを示す。
論文 参考訳(メタデータ) (2020-02-24T17:55:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。