論文の概要: Credit Attribution and Stable Compression
- arxiv url: http://arxiv.org/abs/2406.15916v2
- Date: Thu, 31 Oct 2024 07:56:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-01 16:59:20.715501
- Title: Credit Attribution and Stable Compression
- Title(参考訳): 信用属性と安定圧縮
- Authors: Roi Livni, Shay Moran, Kobbi Nissim, Chirag Pabbaraju,
- Abstract要約: 我々は、機械学習アルゴリズムによる信用属性の研究を行う。
我々は、$k$のデータポイントの指定されたサブセットに対する安定性保証を弱める新しい定義-差分プライバシーの緩和-を提案する。
- 参考スコア(独自算出の注目度): 30.6127949240371
- License:
- Abstract: Credit attribution is crucial across various fields. In academic research, proper citation acknowledges prior work and establishes original contributions. Similarly, in generative models, such as those trained on existing artworks or music, it is important to ensure that any generated content influenced by these works appropriately credits the original creators. We study credit attribution by machine learning algorithms. We propose new definitions--relaxations of Differential Privacy--that weaken the stability guarantees for a designated subset of $k$ datapoints. These $k$ datapoints can be used non-stably with permission from their owners, potentially in exchange for compensation. Meanwhile, the remaining datapoints are guaranteed to have no significant influence on the algorithm's output. Our framework extends well-studied notions of stability, including Differential Privacy ($k = 0$), differentially private learning with public data (where the $k$ public datapoints are fixed in advance), and stable sample compression (where the $k$ datapoints are selected adaptively by the algorithm). We examine the expressive power of these stability notions within the PAC learning framework, provide a comprehensive characterization of learnability for algorithms adhering to these principles, and propose directions and questions for future research.
- Abstract(参考訳): 信用属性は様々な分野において重要である。
学術研究において、適切な引用は事前の作業を認め、オリジナルの貢献を確立する。
同様に、既存の芸術作品や音楽で訓練された作品などの生成モデルでは、これらの作品に影響された生成されたコンテンツが、原作者を適切に信用することが重要である。
我々は、機械学習アルゴリズムによる信用属性の研究を行う。
我々は、$k$のデータポイントの指定されたサブセットに対する安定性保証を弱める新しい定義-差分プライバシーの緩和-を提案する。
これらの$k$のデータポイントは、所有者の許可を得て、潜在的に報酬と引き換えに、安定して使用することができる。
一方、残りのデータポイントはアルゴリズムの出力に大きな影響を与えないことが保証されている。
我々のフレームワークは、よく研究されている安定性の概念を拡張しています。例えば、差分プライバシー(k = 0$)、パブリックデータによる差分プライベートな学習($k$公開データポイントが事前に固定されている)、安定したサンプル圧縮($k$データポイントがアルゴリズムによって適応的に選択される)です。
PAC学習フレームワークにおけるこれらの安定性概念の表現力について検討し、これらの原則に忠実なアルゴリズムの学習可能性の包括的評価を提供し、今後の研究の方向性と課題を提案する。
関連論文リスト
- Differentially Private Synthetic Data with Private Density Estimation [2.209921757303168]
我々は、差分プライバシーの枠組みを採用し、データセット全体を生成するメカニズムを探究する。
我々はBoedihardjoらの研究に基づいて、プライベートな合成データを生成するための新しい最適化ベースのアルゴリズムの基礎を築いた。
論文 参考訳(メタデータ) (2024-05-06T14:06:12Z) - Share Your Representation Only: Guaranteed Improvement of the
Privacy-Utility Tradeoff in Federated Learning [47.042811490685324]
この情報漏洩のリスクを減らし、最先端の差分プライベートアルゴリズムを使っても、無料ではない。
本稿では,異なるプライバシ保証を持つフェデレーションモデルにおいて,様々な当事者が協調的に洗練する表現学習の目的について考察する。
同じ小さなプライバシ予算の下で、以前の作業よりも大幅にパフォーマンスが向上するのを観察する。
論文 参考訳(メタデータ) (2023-09-11T14:46:55Z) - Fairness in Federated Learning via Core-Stability [16.340526776021143]
フェデレートラーニングは、リッチな分散データから恩恵を受けるモデルを共同で最適化する効果的なパラダイムを提供する。
高品質なデータを持つエージェントが、低品質なデータを持つ他のエージェントによってパフォーマンスを犠牲にするのは、直感的に“不公平”である。
コア安定予測器を最適化する効率的なフェデレート学習プロトコルCoreFedを提案する。
論文 参考訳(メタデータ) (2022-11-03T18:41:11Z) - Smooth Anonymity for Sparse Graphs [69.1048938123063]
しかし、スパースデータセットを共有するという点では、差分プライバシーがプライバシのゴールドスタンダードとして浮上している。
本研究では、スムーズな$k$匿名性(スムーズな$k$匿名性)と、スムーズな$k$匿名性(スムーズな$k$匿名性)を提供する単純な大規模アルゴリズムを設計する。
論文 参考訳(メタデータ) (2022-07-13T17:09:25Z) - Individual Privacy Accounting for Differentially Private Stochastic Gradient Descent [69.14164921515949]
DP-SGDで訓練されたモデルをリリースする際の個々の事例に対するプライバシー保証を特徴付ける。
ほとんどの例では、最悪のケースよりも強力なプライバシー保証を享受しています。
これは、モデルユーティリティの観点からは守られないグループが同時に、より弱いプライバシー保証を経験することを意味する。
論文 参考訳(メタデータ) (2022-06-06T13:49:37Z) - Spending Privacy Budget Fairly and Wisely [7.975975942400017]
差分プライベート(DP)合成データ生成は、データへのアクセスを改善するための実用的な方法である。
DP固有の問題のひとつは、"プライバシ予算"が一般的に、データセットの機能間で均等に"発効"していることだ。
我々は,DPデータに基づいてトレーニングされたモデルの予測精度を最大化するために,プライバシー予算を「賢明に」配布するアンサンブル手法を開発した。
論文 参考訳(メタデータ) (2022-04-27T13:13:56Z) - Algorithmic Fairness Datasets: the Story so Far [68.45921483094705]
データ駆動アルゴリズムは、人々の幸福に直接影響し、批判的な決定をサポートするために、さまざまな領域で研究されている。
研究者のコミュニティは、既存のアルゴリズムの株式を調査し、新しいアルゴリズムを提案し、歴史的に不利な人口に対する自動意思決定のリスクと機会の理解を深めてきた。
公正な機械学習の進歩はデータに基づいており、適切に文書化された場合にのみ適切に使用できる。
残念なことに、アルゴリズムフェアネスコミュニティは、特定のリソース(オパシティ)に関する情報の不足と利用可能な情報の分散(スパーシティ)によって引き起こされる、集合的なデータドキュメント負債に悩まされている。
論文 参考訳(メタデータ) (2022-02-03T17:25:46Z) - Differentially Private Temporal Difference Learning with Stochastic
Nonconvex-Strongly-Concave Optimization [17.361143427007224]
時間差(TD)学習は、強化学習における政策を評価するために広く用いられている手法である。
本稿では,非線形値関数を用いたTD学習におけるプライバシ保護について考察する。
DPTDは、トランジションに符号化された機密情報に対して$epsilon,n-differential privacy (DP) を保証し、TD学習の本来のパワーを維持できることを示す。
論文 参考訳(メタデータ) (2022-01-25T16:48:29Z) - Differentially Private and Fair Deep Learning: A Lagrangian Dual
Approach [54.32266555843765]
本稿では,個人の機密情報のプライバシを保護するとともに,非差別的予測器の学習を可能にするモデルについて検討する。
この方法は、微分プライバシーの概念と、公正性制約を満たすニューラルネットワークの設計にラグランジアン双対性(Lagrangian duality)を用いることに依存している。
論文 参考訳(メタデータ) (2020-09-26T10:50:33Z) - Learning while Respecting Privacy and Robustness to Distributional
Uncertainties and Adversarial Data [66.78671826743884]
分散ロバストな最適化フレームワークはパラメトリックモデルのトレーニングのために検討されている。
目的は、逆操作された入力データに対して頑健なトレーニングモデルを提供することである。
提案されたアルゴリズムは、オーバーヘッドがほとんどない堅牢性を提供する。
論文 参考訳(メタデータ) (2020-07-07T18:25:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。