論文の概要: On Rate-Optimal Partitioning Classification from Observable and from
Privatised Data
- arxiv url: http://arxiv.org/abs/2312.14889v2
- Date: Thu, 29 Feb 2024 22:41:23 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-04 14:01:40.065027
- Title: On Rate-Optimal Partitioning Classification from Observable and from
Privatised Data
- Title(参考訳): 観測可能データとプリバタイズデータからのレート最適分割分類について
- Authors: Bal\'azs Csan\'ad Cs\'aji, L\'aszl\'o Gy\"orfi, Ambrus Tam\'as, Harro
Walk
- Abstract要約: 分割分類の古典的手法を再検討し, 緩和条件下での収束率について検討する。
プライバシー制約は、データ$(X_i$), dots,(X_n,Y_n)$を直接観察できないことを意味する。
特徴ベクトル$X_i$とラベル$Y_i$のすべての可能な位置の停止にLaplace分散ノイズを付加する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper we revisit the classical method of partitioning classification
and study its convergence rate under relaxed conditions, both for observable
(non-privatised) and for privatised data. Let the feature vector $X$ take
values in $\mathbb{R}^d$ and denote its label by $Y$. Previous results on the
partitioning classifier worked with the strong density assumption, which is
restrictive, as we demonstrate through simple examples. We assume that the
distribution of $X$ is a mixture of an absolutely continuous and a discrete
distribution, such that the absolutely continuous component is concentrated to
a $d_a$ dimensional subspace. Here, we study the problem under much milder
assumptions: in addition to the standard Lipschitz and margin conditions, a
novel characteristic of the absolutely continuous component is introduced, by
which the exact convergence rate of the classification error probability is
calculated, both for the binary and for the multi-label cases. Interestingly,
this rate of convergence depends only on the intrinsic dimension $d_a$.
The privacy constraints mean that the data $(X_1,Y_1), \dots ,(X_n,Y_n)$
cannot be directly observed, and the classifiers are functions of the
randomised outcome of a suitable local differential privacy mechanism. The
statistician is free to choose the form of this privacy mechanism, and here we
add Laplace distributed noises to the discontinuations of all possible
locations of the feature vector $X_i$ and to its label $Y_i$. Again, tight
upper bounds on the rate of convergence of the classification error probability
are derived, without the strong density assumption, such that this rate depends
on $2\,d_a$.
- Abstract(参考訳): 本稿では,従来の分割分類法を再検討し,その収束率について,可観測性(非民営化)と民営化データの両方について検討する。
特徴ベクトル $X$ は $\mathbb{R}^d$ で値を取り、そのラベルを $Y$ で表す。
分割分類器の以前の結果は、単純な例で示すように、強い密度の仮定で動作した。
x$ の分布は絶対連続と離散分布の混合であり、絶対連続成分は $d_a$ 次元部分空間に集中していると仮定する。
標準リプシッツおよびマージン条件に加えて、二項および多段の場合の両方において、分類誤差確率の正確な収束率を計算した絶対連続成分の新たな特性が導入された。
興味深いことに、この収束速度は内在次元 $d_a$ にのみ依存する。
プライバシーの制約は、データ $(x_1,y_1), \dots ,(x_n,y_n)$ が直接観測できないことを意味し、分類器は適切な局所微分プライバシー機構のランダム化結果の関数である。
統計学者は、このプライバシーメカニズムの形式を自由に選択でき、ここでは、特徴ベクトル $x_i$ とラベル $y_i$ の全ての可能な箇所の停止にラプラス分散ノイズを追加します。
繰り返しになるが、分類誤差確率の収束率に関する厳密な上限は、強い密度の仮定なしで導出され、この値は 2 , d_a$ に依存する。
関連論文リスト
- Gradual Domain Adaptation via Manifold-Constrained Distributionally Robust Optimization [0.4732176352681218]
本稿では、多様体制約データ分布のクラスにおける段階的領域適応の課題に対処する。
本稿では,適応的なワッサースタイン半径を持つ分布ロバスト最適化(DRO)を基礎とした手法を提案する。
我々のバウンダリは、新たに導入されたそれとの互換性尺度に依存しており、シーケンスに沿ったエラー伝搬のダイナミクスを完全に特徴付けています。
論文 参考訳(メタデータ) (2024-10-17T22:07:25Z) - Adaptive $k$-nearest neighbor classifier based on the local estimation of the shape operator [49.87315310656657]
我々は, 局所曲率をサンプルで探索し, 周辺面積を適応的に定義する適応型$k$-nearest(kK$-NN)アルゴリズムを提案する。
多くの実世界のデータセットから、新しい$kK$-NNアルゴリズムは、確立された$k$-NN法と比較してバランスの取れた精度が優れていることが示されている。
論文 参考訳(メタデータ) (2024-09-08T13:08:45Z) - Gaussian-Smoothed Sliced Probability Divergences [15.123608776470077]
滑らか化とスライシングが計量特性と弱位相を保存することを示す。
また、滑らかなパラメータに関して異なる発散の連続性を含む他の性質も導出する。
論文 参考訳(メタデータ) (2024-04-04T07:55:46Z) - Classification Tree Pruning Under Covariate Shift [7.982668978293684]
分類木,すなわち,バイアスと分散のバランスをとるのに適した部分木を選択するという問題を考える。
このような状況下では、クロスバリデーションや他のペナル化変種が著しく不十分である場合に、最適なプルーニングを行うための最初の効率的な手順を提示する。
論文 参考訳(メタデータ) (2023-05-07T17:08:21Z) - General Gaussian Noise Mechanisms and Their Optimality for Unbiased Mean
Estimation [58.03500081540042]
プライベート平均推定に対する古典的なアプローチは、真の平均を計算し、バイアスのないがおそらく相関のあるガウスノイズを加えることである。
すべての入力データセットに対して、集中的な差分プライバシーを満たす非バイアス平均推定器が、少なくとも多くのエラーをもたらすことを示す。
論文 参考訳(メタデータ) (2023-01-31T18:47:42Z) - Improved Analysis of Score-based Generative Modeling: User-Friendly
Bounds under Minimal Smoothness Assumptions [9.953088581242845]
2次モーメントを持つ任意のデータ分布に対して,コンバージェンス保証と複雑性を提供する。
我々の結果は、対数共空性や機能的不等式を前提としない。
我々の理論解析は、異なる離散近似の比較を提供し、実際の離散化点の選択を導くかもしれない。
論文 参考訳(メタデータ) (2022-11-03T15:51:00Z) - High Probability Bounds for a Class of Nonconvex Algorithms with AdaGrad
Stepsize [55.0090961425708]
本研究では,AdaGradのスムーズな非確率問題に対する簡易な高確率解析法を提案する。
我々はモジュラーな方法で解析を行い、決定論的設定において相補的な$mathcal O (1 / TT)$収束率を得る。
我々の知る限りでは、これは真に適応的なスキームを持つAdaGradにとって初めての高い確率である。
論文 参考訳(メタデータ) (2022-04-06T13:50:33Z) - Optimal policy evaluation using kernel-based temporal difference methods [78.83926562536791]
カーネルヒルベルト空間を用いて、無限水平割引マルコフ報酬過程の値関数を推定する。
我々は、関連するカーネル演算子の固有値に明示的に依存した誤差の非漸近上界を導出する。
MRP のサブクラスに対する minimax の下位境界を証明する。
論文 参考訳(メタデータ) (2021-09-24T14:48:20Z) - Strongly universally consistent nonparametric regression and
classification with privatised data [2.879036956042183]
非パラメトリック回帰の古典的問題を再考するが、局所的な差分プライバシー制約を課す。
我々は回帰関数の新しい推定器を設計し、よく研究された分割回帰推定器の民営版とみなすことができる。
論文 参考訳(メタデータ) (2020-10-31T09:00:43Z) - Sharp Statistical Guarantees for Adversarially Robust Gaussian
Classification [54.22421582955454]
逆向きに頑健な分類の過剰リスクに対する最適ミニマックス保証の最初の結果を提供する。
結果はAdvSNR(Adversarial Signal-to-Noise Ratio)の項で述べられており、これは標準的な線形分類と逆数設定との類似の考え方を一般化している。
論文 参考訳(メタデータ) (2020-06-29T21:06:52Z) - Robustly Learning any Clusterable Mixture of Gaussians [55.41573600814391]
本研究では,高次元ガウス混合系の対向ロバスト条件下での効率的な学習性について検討する。
理論的に最適に近い誤り証明である$tildeO(epsilon)$の情報を、$epsilon$-corrupted $k$-mixtureで学習するアルゴリズムを提供する。
我々の主な技術的貢献は、ガウス混合系からの新しい頑健な識別可能性証明クラスターであり、これは正方形の定度証明システムによって捉えることができる。
論文 参考訳(メタデータ) (2020-05-13T16:44:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。