論文の概要: Robust estimation with Lasso when outputs are adversarially contaminated
- arxiv url: http://arxiv.org/abs/2004.05990v4
- Date: Sat, 10 Oct 2020 06:22:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-13 23:44:26.091510
- Title: Robust estimation with Lasso when outputs are adversarially contaminated
- Title(参考訳): 出力が逆向きに汚染された場合のラッソによるロバスト推定
- Authors: Takeyuki Sasai and Hironori Fujisawa
- Abstract要約: 出力が逆向きに汚染されている場合のロバストな推定について検討する。
最近、ダラーリャンとトンプソンはいくつかの有用な不等式を与え、その後、グエンやトラン(2012年)よりも高速な収束速度を示した。
ダラーリャンやトンプソンと異なる証明を与え、ダラーリャンやトンプソンと同じ収束率を与える。
- 参考スコア(独自算出の注目度): 4.7210697296108926
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider robust estimation when outputs are adversarially contaminated.
Nguyen and Tran (2012) proposed an extended Lasso for robust parameter
estimation and then they showed the convergence rate of the estimation error.
Recently, Dalalyan and Thompson (2019) gave some useful inequalities and then
they showed a faster convergence rate than Nguyen and Tran (2012). They focused
on the fact that the minimization problem of the extended Lasso can become that
of the penalized Huber loss function with $L_1$ penalty. The distinguishing
point is that the Huber loss function includes an extra tuning parameter, which
is different from the conventional method. We give the proof, which is
different from Dalalyan and Thompson (2019) and then we give the same
convergence rate as Dalalyan and Thompson (2019). The significance of our proof
is to use some specific properties of the Huber function. Such techniques have
not been used in the past proofs.
- Abstract(参考訳): 我々は,出力が反対に汚染される場合のロバストな推定を考える。
Nguyen and Tran (2012) はロバストなパラメータ推定のための拡張ラッソを提案し、その推定誤差の収束率を示した。
最近、Dalalyan と Thompson (2019) はいくつかの有用な不等式を与え、その後 Nguyen と Tran (2012) よりも高速な収束速度を示した。
彼らは、拡張されたラッソの最小化問題は、$L_1$ペナルティを持つハマー損失関数のペナルティ化に焦点をあてた。
特徴は、ハマー損失関数が従来の方法とは異なる追加のチューニングパラメータを含むことである。
Dalalyan と Thompson (2019) とは異なる証明を与え、その後 Dalalyan と Thompson (2019) と同じ収束率を与える。
この証明の意義は、フーバー函数の特定の性質を利用することである。
このような手法は過去の証明では使われていない。
関連論文リスト
- Sparsified Simultaneous Confidence Intervals for High-Dimensional Linear
Models [4.010566541114989]
本稿では,間隔化同時信頼区間という,同時信頼区間の概念を提案する。
我々の区間は、区間の上と下の境界の一部が 0 に切り替わるという意味でスパースである。
提案手法は様々な選択手順と組み合わせることができるため,不確実性を比較するのに最適である。
論文 参考訳(メタデータ) (2023-07-14T18:37:57Z) - Lower Bounds on the Bayesian Risk via Information Measures [17.698319441265223]
マルコフの不等式を介して双対を上界にすることで、あらゆる情報測度でリスクを低くすることができることを示す。
サンプル数における下位境界の挙動は、情報尺度の選択によって影響される。
観測結果が民営化される場合、強いデータ・プロシーシングの不等式により、強い不合理性が得られる。
論文 参考訳(メタデータ) (2023-03-22T12:09:12Z) - Inference on Strongly Identified Functionals of Weakly Identified
Functions [71.42652863687117]
本研究では,ニュアンス関数が存在しない場合でも,関数を強く識別するための新しい条件について検討する。
本稿では,プライマリおよびデバイアスのニュアンス関数に対するペナル化ミニマックス推定器を提案する。
論文 参考訳(メタデータ) (2022-08-17T13:38:31Z) - High Probability Bounds for a Class of Nonconvex Algorithms with AdaGrad
Stepsize [55.0090961425708]
本研究では,AdaGradのスムーズな非確率問題に対する簡易な高確率解析法を提案する。
我々はモジュラーな方法で解析を行い、決定論的設定において相補的な$mathcal O (1 / TT)$収束率を得る。
我々の知る限りでは、これは真に適応的なスキームを持つAdaGradにとって初めての高い確率である。
論文 参考訳(メタデータ) (2022-04-06T13:50:33Z) - Faster Convergence of Local SGD for Over-Parameterized Models [2.3572498744567123]
現代の機械学習は、経験的損失をゼロにすることでデータを高度に表現的に補間する。
我々は、$O(K/T)に縛られるエラーを示す。
このような収束率を合理的に小さなステップで厳密な例を提供する。
論文 参考訳(メタデータ) (2022-01-30T04:05:56Z) - Causal Inference Under Unmeasured Confounding With Negative Controls: A
Minimax Learning Approach [84.29777236590674]
すべての共同設立者が観察されず、代わりに負の制御が利用可能である場合の因果パラメータの推定について検討する。
最近の研究は、2つのいわゆるブリッジ関数による同定と効率的な推定を可能にする方法を示している。
論文 参考訳(メタデータ) (2021-03-25T17:59:19Z) - Adversarial robust weighted Huber regression [6.09170287691728]
出力と入力が悪意のある外れ値によって汚染された場合の線形回帰係数を推定する新しい手法を提案する。
我々の結果は最小値から定数係数まで最適である。
論文 参考訳(メタデータ) (2021-02-22T15:50:34Z) - Fast Rates for the Regret of Offline Reinforcement Learning [69.23654172273085]
無限水平割引決定プロセス(MDP)における固定行動ポリシーによって生成されたオフラインデータからの強化学習の後悔について検討する。
最適品質関数 $Q*$ に対する任意の推定が与えられたとき、定義するポリシーの後悔は、$Q*$-estimate の点収束率の指数によって与えられる速度で収束することを示す。
論文 参考訳(メタデータ) (2021-01-31T16:17:56Z) - On the Practicality of Differential Privacy in Federated Learning by
Tuning Iteration Times [51.61278695776151]
フェデレートラーニング(FL)は、分散クライアント間で機械学習モデルを協調的にトレーニングする際のプライバシ保護でよく知られている。
最近の研究では、naive flは勾配リーク攻撃の影響を受けやすいことが指摘されている。
ディファレンシャルプライバシ(dp)は、勾配漏洩攻撃を防御するための有望な対策として現れる。
論文 参考訳(メタデータ) (2021-01-11T19:43:12Z) - Robust Linear Regression: Optimal Rates in Polynomial Time [11.646151402884215]
複数の線形モデルを学習するための頑健で計算効率の良い推定器を得る。
確率変数の独立性の緩和に役立つ解析条件を同定する。
我々の中心となる技術的貢献は、"sum-of-squares"フレームワークにおけるランダム変数の独立性をアルゴリズム的に活用することである。
論文 参考訳(メタデータ) (2020-06-29T17:22:16Z) - Bayesian Optimization with Missing Inputs [53.476096769837724]
我々は、よく知られたアッパー信頼境界(UCB)獲得関数に基づく新たな獲得関数を開発する。
我々は,本手法の有用性を示すために,合成アプリケーションと実世界のアプリケーションの両方について包括的な実験を行った。
論文 参考訳(メタデータ) (2020-06-19T03:56:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。