論文の概要: Robust Online Convex Optimization in the Presence of Outliers
- arxiv url: http://arxiv.org/abs/2107.01881v1
- Date: Mon, 5 Jul 2021 09:14:28 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-06 14:52:58.067562
- Title: Robust Online Convex Optimization in the Presence of Outliers
- Title(参考訳): アウトレーヤ存在下でのロバストオンライン凸最適化
- Authors: Tim van Erven, Sarah Sachs, Wouter M. Koolen and Wojciech Kot{\l}owski
- Abstract要約: 多数のデータポイントが外れ値である場合、オンライン凸最適化を考慮し、破損する可能性がある。
私たちは、不利でないラウンドでのみ後悔を測定する頑健な後悔の概念を導入することでこれをモデル化します。
- 参考スコア(独自算出の注目度): 19.97704019887898
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider online convex optimization when a number k of data points are
outliers that may be corrupted. We model this by introducing the notion of
robust regret, which measures the regret only on rounds that are not outliers.
The aim for the learner is to achieve small robust regret, without knowing
where the outliers are. If the outliers are chosen adversarially, we show that
a simple filtering strategy on extreme gradients incurs O(k) additive overhead
compared to the usual regret bounds, and that this is unimprovable, which means
that k needs to be sublinear in the number of rounds. We further ask which
additional assumptions would allow for a linear number of outliers. It turns
out that the usual benign cases of independently, identically distributed
(i.i.d.) observations or strongly convex losses are not sufficient. However,
combining i.i.d. observations with the assumption that outliers are those
observations that are in an extreme quantile of the distribution, does lead to
sublinear robust regret, even though the expected number of outliers is linear.
- Abstract(参考訳): 多数のデータポイントが外れ値である場合、オンライン凸最適化を考慮に入れます。
私たちは、不利でないラウンドでのみ後悔を測定する頑健な後悔の概念を導入することでこれをモデル化します。
学習者の目的は、外れ値がどこにあるかを知ることなく、小さな頑健な後悔を達成することである。
外れ値が逆向きに選択された場合、極端な勾配上の単純なフィルタリング戦略は、通常の後悔境界よりも O(k) 加法的オーバーヘッドを生じさせ、これは証明不可能であり、つまり、k はラウンド数で亜線型である必要があることを示す。
さらに、どの仮定が線形な外れ値の数を許容するかを尋ねる。
その結果、通常の良性ケースは独立して、同じ分布(d)であることがわかった。
観測や強い凸損失は不十分である。
しかし、i.i.dと組み合わせる。
外れ値が分布の極端な定量値にあるという仮定による観測は、期待される外れ値の数が線形であるにもかかわらず、下位の頑健な後悔を引き起こす。
関連論文リスト
- Refined Risk Bounds for Unbounded Losses via Transductive Priors [58.967816314671296]
線形回帰の逐次変分を2乗損失、ヒンジ損失の分類問題、ロジスティック回帰で再検討する。
我々の鍵となるツールは、慎重に選択された導出先を持つ指数重み付けアルゴリズムに基づいている。
論文 参考訳(メタデータ) (2024-10-29T00:01:04Z) - LEARN: An Invex Loss for Outlier Oblivious Robust Online Optimization [56.67706781191521]
敵は、学習者に未知の任意の数kの損失関数を破損させることで、外れ値を導入することができる。
我々は,任意の数kで損失関数を破損させることで,敵が外乱を発生させることができる,頑健なオンラインラウンド最適化フレームワークを提案する。
論文 参考訳(メタデータ) (2024-08-12T17:08:31Z) - Relaxed Quantile Regression: Prediction Intervals for Asymmetric Noise [51.87307904567702]
量子レグレッション(Quantile regression)は、出力の分布における量子の実験的推定を通じてそのような間隔を得るための主要なアプローチである。
本稿では、この任意の制約を除去する量子回帰に基づく区間構成の直接的な代替として、Relaxed Quantile Regression (RQR)を提案する。
これにより、柔軟性が向上し、望ましい品質が向上することが実証された。
論文 参考訳(メタデータ) (2024-06-05T13:36:38Z) - Maximum Likelihood Uncertainty Estimation: Robustness to Outliers [3.673994921516517]
トレーニングデータのアウトレーヤやノイズラベルは、劣化したパフォーマンスと不確実性の誤った推定をもたらす。
そこで本研究では,オフレイアに対するロバスト性を改善するために,重み付き分布を用いることを提案する。
論文 参考訳(メタデータ) (2022-02-03T10:41:34Z) - Learning to Estimate Without Bias [57.82628598276623]
ガウスの定理は、重み付き最小二乗推定器は線形モデルにおける線形最小分散アンバイアスド推定(MVUE)であると述べている。
本稿では、バイアス制約のあるディープラーニングを用いて、この結果を非線形設定に拡張する第一歩を踏み出す。
BCEの第二の動機は、同じ未知の複数の推定値が平均化されてパフォーマンスが向上するアプリケーションにおいてである。
論文 参考訳(メタデータ) (2021-10-24T10:23:51Z) - Near-optimal inference in adaptive linear regression [60.08422051718195]
最小二乗法のような単純な方法でさえ、データが適応的に収集されるときの非正規な振る舞いを示すことができる。
我々は,これらの分布異常を少なくとも2乗推定で補正するオンラインデバイアス推定器のファミリーを提案する。
我々は,マルチアームバンディット,自己回帰時系列推定,探索による能動的学習などの応用を通して,我々の理論の有用性を実証する。
論文 参考訳(メタデータ) (2021-07-05T21:05:11Z) - Distribution-Free Robust Linear Regression [5.532477732693]
共変体の分布を仮定せずにランダムな設計線形回帰を研究する。
最適部分指数尾を持つオーダー$d/n$の過大なリスクを達成する非線形推定器を構築する。
我々は、Gy"orfi, Kohler, Krzyzak, Walk が原因で、truncated least squares 推定器の古典的境界の最適版を証明した。
論文 参考訳(メタデータ) (2021-02-25T15:10:41Z) - Suboptimality of Constrained Least Squares and Improvements via
Non-Linear Predictors [3.5788754401889014]
有界ユークリッド球における正方形損失に対する予測問題と最良の線形予測器について検討する。
最小二乗推定器に対する$O(d/n)$過剰リスク率を保証するのに十分な分布仮定について論じる。
論文 参考訳(メタデータ) (2020-09-19T21:39:46Z) - $\gamma$-ABC: Outlier-Robust Approximate Bayesian Computation Based on a
Robust Divergence Estimator [95.71091446753414]
最寄りの$gamma$-divergence推定器をデータ差分尺度として用いることを提案する。
本手法は既存の不一致対策よりも高いロバスト性を実現する。
論文 参考訳(メタデータ) (2020-06-13T06:09:27Z) - Finding Outliers in Gaussian Model-Based Clustering [1.0435741631709405]
クラスタリング(英: Clustering)または教師なし分類(英: unsupervised classification)は、しばしば外れ者によって悩まされるタスクである。
クラスタリングでは、アウトレーヤの処理には多くの作業があります。
論文 参考訳(メタデータ) (2019-07-02T03:02:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。