論文の概要: Privacy-Aware Sequential Learning
- arxiv url: http://arxiv.org/abs/2502.19525v5
- Date: Mon, 29 Sep 2025 18:31:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-03 16:59:19.755539
- Title: Privacy-Aware Sequential Learning
- Title(参考訳): プライバシーに配慮したシークエンシャルラーニング
- Authors: Yuxin Liu, M. Amin Rahimian,
- Abstract要約: 予防接種登録では、個人は他人を観察して行動し、その結果の公開記録は個人情報を公開することができる。
プライバシ保護シーケンシャルラーニング(プライバシ保存シーケンシャルラーニング)について検討し、エージェントが報告された行動に内因性ノイズを加えてプライベートシグナルを隠蔽する。
以上の結果から,プライバシが情報を動的にフィードバックし,プラットフォームやポリシの設計を通知する方法が示唆された。
- 参考スコア(独自算出の注目度): 1.9573768098158
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In settings like vaccination registries, individuals act after observing others, and the resulting public records can expose private information. We study privacy-preserving sequential learning, where agents add endogenous noise to their reported actions to conceal private signals. Efficient social learning relies on information flow, seemingly in conflict with privacy. Surprisingly, with continuous signals and a fixed privacy budget $(\epsilon)$, the optimal randomization strategy balances privacy and accuracy, accelerating learning to $\Theta_{\epsilon}(\log n)$, faster than the nonprivate $\Theta(\sqrt{\log n})$ rate. In the nonprivate baseline, the expected time to the first correct action and the number of incorrect actions diverge; under privacy with sufficiently small $\epsilon$, both are finite. Privacy helps because, under the false state, agents more often receive signals contradicting the majority; randomization then asymmetrically amplifies the log-likelihood ratio, enhancing aggregation. In heterogeneous populations, an order-optimal $\Theta(\sqrt{n})$ rate is achievable when a subset of agents have low privacy budgets. With binary signals, however, privacy reduces informativeness and impairs learning relative to the nonprivate baseline, though the dependence on $\epsilon$ is nonmonotone. Our results show how privacy reshapes information dynamics and inform the design of platforms and policies.
- Abstract(参考訳): 予防接種登録のような設定では、個人は他人を観察して行動し、その結果の公開記録は個人情報を公開することができる。
プライバシ保護シーケンシャルラーニング(プライバシ保存シーケンシャルラーニング)について検討し、エージェントが報告された行動に内因性ノイズを加えてプライベートシグナルを隠蔽する。
効果的な社会学習は、プライバシーと矛盾しているように見える情報の流れに依存している。
驚くべきことに、継続的なシグナルと固定されたプライバシー予算$(\epsilon)$で、最適なランダム化戦略はプライバシーと精度のバランスをとり、学習を$\Theta_{\epsilon}(\log n)$に加速する。
プライベートでないベースラインでは、最初の正しいアクションへの期待時間と間違ったアクションの数が異なる。
プライバシは、偽の状態では、エージェントが多数派と矛盾する信号を受け取ることが多いために役立つ。
異種集団では、オーダー最適$\Theta(\sqrt{n})$レートは、エージェントのサブセットが低いプライバシー予算を持つ場合に達成できる。
しかし、バイナリ信号によって、プライバシーは情報提供力と非私的ベースラインに対する学習を低下させるが、$\epsilon$への依存は非モノトンである。
以上の結果から,プライバシが情報を動的にフィードバックし,プラットフォームやポリシの設計を通知する方法が示唆された。
関連論文リスト
- Differentially Private Distributed Inference [2.4401219403555814]
臨床試験に協力する医療センターは、知識共有と機密データ保護のバランスを取る必要がある。
情報漏洩を制御するために差分プライバシー(DP)を用いてこの問題に対処する。
エージェントはログリニアルールを通じて信条統計を更新し、DPノイズは信頼性の高い識別性と厳格な性能保証を提供する。
論文 参考訳(メタデータ) (2024-02-13T01:38:01Z) - Private Fine-tuning of Large Language Models with Zeroth-order Optimization [51.19403058739522]
差分的プライベート勾配降下(DP-SGD)により、モデルはプライバシ保護の方法でトレーニングできる。
DP-ZO(DP-ZO)は,ゼロオーダー最適化手法を民営化することで,大規模言語モデルのためのプライベートな微調整フレームワークである。
論文 参考訳(メタデータ) (2024-01-09T03:53:59Z) - Analyzing Privacy Leakage in Machine Learning via Multiple Hypothesis
Testing: A Lesson From Fano [83.5933307263932]
本研究では,離散データに対するデータ再構成攻撃について検討し,仮説テストの枠組みの下で解析する。
基礎となるプライベートデータが$M$のセットから値を取ると、ターゲットのプライバシパラメータ$epsilon$が$O(log M)$になる。
論文 参考訳(メタデータ) (2022-10-24T23:50:12Z) - Smooth Anonymity for Sparse Graphs [69.1048938123063]
しかし、スパースデータセットを共有するという点では、差分プライバシーがプライバシのゴールドスタンダードとして浮上している。
本研究では、スムーズな$k$匿名性(スムーズな$k$匿名性)と、スムーズな$k$匿名性(スムーズな$k$匿名性)を提供する単純な大規模アルゴリズムを設計する。
論文 参考訳(メタデータ) (2022-07-13T17:09:25Z) - Individual Privacy Accounting for Differentially Private Stochastic Gradient Descent [69.14164921515949]
DP-SGDで訓練されたモデルをリリースする際の個々の事例に対するプライバシー保証を特徴付ける。
ほとんどの例では、最悪のケースよりも強力なプライバシー保証を享受しています。
これは、モデルユーティリティの観点からは守られないグループが同時に、より弱いプライバシー保証を経験することを意味する。
論文 参考訳(メタデータ) (2022-06-06T13:49:37Z) - Quantifying identifiability to choose and audit $\epsilon$ in
differentially private deep learning [15.294433619347082]
機械学習で差分プライバシーを使用するには、データサイエンティストがプライバシパラメータを$(epsilon,delta)$を選択する必要がある。
私たちは$(epsilon,delta)$を、トレーニングデータセット内のレコードの存在に関する差分プライバシーによって想定される相手のベイジアン後方信念にバインドに変換します。
我々は、データサイエンティストがモデルのトレーニングを監査し、経験的識別可能性スコアと経験的$(epsilon,delta)$を計算することを可能にするこの差分プライバシーの敵対の実装を策定します。
論文 参考訳(メタデータ) (2021-03-04T09:35:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。