論文の概要: Crowding Out The Noise: Algorithmic Collective Action Under Differential Privacy
- arxiv url: http://arxiv.org/abs/2505.05707v1
- Date: Fri, 09 May 2025 00:55:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-12 20:40:10.115289
- Title: Crowding Out The Noise: Algorithmic Collective Action Under Differential Privacy
- Title(参考訳): ノイズに群がる: 差別的プライバシー下でのアルゴリズムによる集団行動
- Authors: Rushabh Solanki, Meghana Bhange, Ulrich Aïvodji, Elliot Creager,
- Abstract要約: 本研究では,DPSGDの使用が学習プロセスに影響を与える集団の能力にどのように影響するかを検討する。
その結果, 差分プライバシーは個々のデータの保護に寄与するが, 効果的なアルゴリズム的集団行動の課題がもたらされることが示唆された。
- 参考スコア(独自算出の注目度): 6.998193225147938
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The integration of AI into daily life has generated considerable attention and excitement, while also raising concerns about automating algorithmic harms and re-entrenching existing social inequities. While the responsible deployment of trustworthy AI systems is a worthy goal, there are many possible ways to realize it, from policy and regulation to improved algorithm design and evaluation. In fact, since AI trains on social data, there is even a possibility for everyday users, citizens, or workers to directly steer its behavior through Algorithmic Collective Action, by deliberately modifying the data they share with a platform to drive its learning process in their favor. This paper considers how these grassroots efforts to influence AI interact with methods already used by AI firms and governments to improve model trustworthiness. In particular, we focus on the setting where the AI firm deploys a differentially private model, motivated by the growing regulatory focus on privacy and data protection. We investigate how the use of Differentially Private Stochastic Gradient Descent (DPSGD) affects the collective's ability to influence the learning process. Our findings show that while differential privacy contributes to the protection of individual data, it introduces challenges for effective algorithmic collective action. We characterize lower bounds on the success of algorithmic collective action under differential privacy as a function of the collective's size and the firm's privacy parameters, and verify these trends experimentally by simulating collective action during the training of deep neural network classifiers across several datasets.
- Abstract(参考訳): AIの日常生活への統合は、かなりの注意と興奮を引き起こし、アルゴリズムによる害の自動化や、既存の社会的不平等の再結束への懸念も高まっている。
信頼できるAIシステムの責任ある展開は価値ある目標であるが、ポリシーや規制からアルゴリズムの設計と評価の改善に至るまで、それを実現するための多くの方法が存在する。
実際、AIはソーシャルデータをトレーニングしているため、アルゴリズムによる集団行動を通じて、毎日のユーザー、市民、労働者が直接行動する可能性さえある。
本稿では、AIに影響を与えるこれらの草の根的取り組みが、AI企業や政府によって既に使われている手法とどのように相互作用し、モデルの信頼性を改善するかを検討する。
特に、プライバシとデータ保護に関する規制の強化を動機として、AI企業が微分プライベートモデルをデプロイする状況に注目します。
本稿では,DPSGDを用いた場合,学習過程に影響を及ぼす集団の能力について検討する。
その結果, 差分プライバシーは個々のデータの保護に寄与するが, 効果的なアルゴリズム的集団行動の課題がもたらされることが示唆された。
差分プライバシの下でのアルゴリズム的集団行動の成功に対する低い限界を、集団の大きさと企業のプライバシパラメータの関数として特徴付けるとともに、複数のデータセットにわたるディープニューラルネットワーク分類器のトレーニング中の集団行動のシミュレーションにより、これらの傾向を実験的に検証する。
関連論文リスト
- Differentially Private Decentralized Learning with Random Walks [15.862152253607496]
ランダムウォークアルゴリズムを用いて分散学習のプライバシー保証を特徴付ける。そこでは、あるノードから別のノードへ通信グラフのエッジに沿って移動することで、モデルを更新する。
その結果、ランダムウォークアルゴリズムは、互いに近接するノードに対するゴシップアルゴリズムよりも、より優れたプライバシ保証をもたらす傾向があることが明らかとなった。
論文 参考訳(メタデータ) (2024-02-12T08:16:58Z) - Privacy Risks in Reinforcement Learning for Household Robots [42.675213619562975]
プライバシーは、ロボットが実質的な個人情報にアクセスすることによって、具体化されたAIの領域における重要な関心事として浮上する。
本稿では,値に基づくアルゴリズムと勾配に基づくアルゴリズムのトレーニングプロセスに対する攻撃を提案し,状態,行動,監督信号の再構成に勾配インバージョンを利用する。
論文 参考訳(メタデータ) (2023-06-15T16:53:26Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z) - "You Can't Fix What You Can't Measure": Privately Measuring Demographic
Performance Disparities in Federated Learning [78.70083858195906]
グループメンバーシップのプライバシを保護しつつ,グループ間でのパフォーマンスの差異を測定するための,差分プライベートなメカニズムを提案する。
我々の結果は、以前の研究の示唆に反して、プライバシ保護は必ずしもフェデレーションモデルの性能格差の特定と矛盾しているわけではないことを示している。
論文 参考訳(メタデータ) (2022-06-24T09:46:43Z) - Privacy-Constrained Policies via Mutual Information Regularized Policy Gradients [54.98496284653234]
報酬を最大化しつつ、行動を通じて特定の機密状態変数の開示を最小限に抑えながら、報酬を最大化する政策を訓練する課題を考察する。
本稿では, 感性状態と行動の相互情報に基づく正則化器を導入することで, この問題を解決する。
プライバシ制約のあるポリシーを最適化するためのモデルベース推定器を開発した。
論文 参考訳(メタデータ) (2020-12-30T03:22:35Z) - Privacy-preserving Traffic Flow Prediction: A Federated Learning
Approach [61.64006416975458]
本稿では,フェデレート学習に基づくGated Recurrent Unit Neural Network Algorithm (FedGRU) というプライバシ保護機械学習手法を提案する。
FedGRUは、現在の集中学習方法と異なり、安全なパラメータアグリゲーション機構を通じて、普遍的な学習モデルを更新する。
FedGRUの予測精度は、先進的なディープラーニングモデルよりも90.96%高い。
論文 参考訳(メタデータ) (2020-03-19T13:07:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。