論文の概要: Learning versus Refutation in Noninteractive Local Differential Privacy
- arxiv url: http://arxiv.org/abs/2210.15439v1
- Date: Wed, 26 Oct 2022 03:19:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-28 13:35:43.430707
- Title: Learning versus Refutation in Noninteractive Local Differential Privacy
- Title(参考訳): 非対話型ローカル差分プライバシーにおける学習対難読化
- Authors: Alexander Edmonds, Aleksandar Nikolov, Toniann Pitassi
- Abstract要約: 非対話的局所差分プライバシー(LDP)における2つの基本的な統計課題について検討する。
本研究の主な成果は,非対話型LDPプロトコルにおけるPAC学習の複雑さの完全な評価である。
- 参考スコア(独自算出の注目度): 133.80204506727526
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study two basic statistical tasks in non-interactive local differential
privacy (LDP): learning and refutation. Learning requires finding a concept
that best fits an unknown target function (from labelled samples drawn from a
distribution), whereas refutation requires distinguishing between data
distributions that are well-correlated with some concept in the class, versus
distributions where the labels are random. Our main result is a complete
characterization of the sample complexity of agnostic PAC learning for
non-interactive LDP protocols. We show that the optimal sample complexity for
any concept class is captured by the approximate $\gamma_2$~norm of a natural
matrix associated with the class. Combined with previous work [Edmonds, Nikolov
and Ullman, 2019] this gives an equivalence between learning and refutation in
the agnostic setting.
- Abstract(参考訳): 非対話的局所差分プライバシー(LDP)における2つの基本的な統計課題について検討する。
学習には、未知のターゲット関数(分布から引き出されたラベル付きサンプルから)に最も適した概念を見つける必要があるが、難読化には、クラス内のある概念とよく関連しているデータ分布と、ラベルがランダムな分布を区別する必要がある。
主な結果は,非対話型ldpプロトコルにおけるpac学習のサンプル複雑性の完全解析である。
任意の概念クラスの最適なサンプル複雑性は、そのクラスに付随する自然行列の近似 $\gamma_2$~norm によってキャプチャされる。
以前の研究(Edmonds, Nikolov, Ullman, 2019)と組み合わせることで,無知な環境下での学習と反感の同値性が得られるのです。
関連論文リスト
- Probabilistic Contrastive Learning for Long-Tailed Visual Recognition [78.70453964041718]
細長い分布は、少数の少数派が限られた数のサンプルを含む実世界のデータにしばしば現れる。
近年の研究では、教師付きコントラスト学習がデータ不均衡を緩和する有望な可能性を示していることが明らかになっている。
本稿では,特徴空間の各クラスからのサンプルデータ分布を推定する確率論的コントラスト学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-03-11T13:44:49Z) - Unsupervised Concept Discovery Mitigates Spurious Correlations [45.48778210340187]
トレーニングデータにおける急激な相関関係のモデルはしばしば脆い予測を発生させ、意図しないバイアスを導入する。
本稿では,教師なし対象中心学習と突発的相関の緩和の新たな関連性を確立する。
コバルト(CoBalT)は、サブグループの人間のラベル付けを必要とせず、効果的に素早い相関を緩和する概念バランス技術である。
論文 参考訳(メタデータ) (2024-02-20T20:48:00Z) - Collaborative Learning with Different Labeling Functions [7.228285747845779]
我々は、$n$のデータ分布ごとに正確な分類器を学習することを目的とした、協調型PAC学習の亜種について研究する。
データ分布がより弱い実現可能性の仮定を満たす場合、サンプル効率の学習は依然として可能であることを示す。
論文 参考訳(メタデータ) (2024-02-16T04:32:22Z) - Learning with Complementary Labels Revisited: The Selected-Completely-at-Random Setting Is More Practical [66.57396042747706]
補完ラベル学習は、弱教師付き学習問題である。
均一分布仮定に依存しない一貫したアプローチを提案する。
相補的なラベル学習は、負のラベル付きバイナリ分類問題の集合として表現できる。
論文 参考訳(メタデータ) (2023-11-27T02:59:17Z) - Adaptive Negative Evidential Deep Learning for Open-set Semi-supervised Learning [69.81438976273866]
オープンセット半教師付き学習(Open-set SSL)は、ラベル付きデータ(inliers)で観測されない新しいカテゴリ(outliers)を含むラベル付きデータとテストデータを含む、より実践的なシナリオである。
本研究では,様々な不確かさを定量化するための外乱検出器として顕在的深層学習(EDL)を導入し,自己学習と推論のための異なる不確実性指標を設計する。
Inlierとoutlierの両方を含むラベルなしデータセットに適合するように、新しい適応的負の最適化戦略を提案する。
論文 参考訳(メタデータ) (2023-03-21T09:07:15Z) - Differentially-Private Bayes Consistency [70.92545332158217]
差分プライバシー(DP)を満たすベイズ一貫した学習ルールを構築する。
ほぼ最適なサンプル複雑性を持つ半教師付き環境で,任意のVCクラスをプライベートに学習できることを実証する。
論文 参考訳(メタデータ) (2022-12-08T11:57:30Z) - Label-Noise Learning with Intrinsically Long-Tailed Data [65.41318436799993]
本稿では,本質的な長期データを用いたラベルノイズ学習のための学習フレームワークを提案する。
具体的には, 2段階の2次元試料選択法(TABASCO)を提案する。
論文 参考訳(メタデータ) (2022-08-21T07:47:05Z) - Sample Complexity Bounds for Robustly Learning Decision Lists against
Evasion Attacks [25.832511407411637]
敵機械学習の根本的な問題は、回避攻撃の存在下でどれだけのトレーニングデータが必要とされるかを定量化することである。
我々は、リプシッツ条件を満たす入力データ上の確率分布を扱う。
すべての固定$k$に対して、$k$-決定リストのクラスは、$log(n)$-bounded adversaryに対してサンプル複雑性を持つ。
論文 参考訳(メタデータ) (2022-05-12T14:40:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。