論文の概要: A Three-Way Knot: Privacy, Fairness, and Predictive Performance Dynamics
- arxiv url: http://arxiv.org/abs/2306.15567v1
- Date: Tue, 27 Jun 2023 15:46:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-28 12:53:31.462414
- Title: A Three-Way Knot: Privacy, Fairness, and Predictive Performance Dynamics
- Title(参考訳): 3ウェイノット:プライバシ、フェアネス、予測パフォーマンスのダイナミクス
- Authors: T\^ania Carvalho, Nuno Moniz and Lu\'is Antunes
- Abstract要約: 最も重要な問題の2つは、公正性とデータのプライバシーである。
プライバシ、公平性、予測パフォーマンスのバランスは複雑です。
この3方向の張力と各ベクトルの最適化が他に与える影響について検討する。
- 参考スコア(独自算出の注目度): 2.9005223064604078
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: As the frontier of machine learning applications moves further into human
interaction, multiple concerns arise regarding automated decision-making. Two
of the most critical issues are fairness and data privacy. On the one hand, one
must guarantee that automated decisions are not biased against certain groups,
especially those unprotected or marginalized. On the other hand, one must
ensure that the use of personal information fully abides by privacy regulations
and that user identities are kept safe. The balance between privacy, fairness,
and predictive performance is complex. However, despite their potential
societal impact, we still demonstrate a poor understanding of the dynamics
between these optimization vectors. In this paper, we study this three-way
tension and how the optimization of each vector impacts others, aiming to
inform the future development of safe applications. In light of claims that
predictive performance and fairness can be jointly optimized, we find this is
only possible at the expense of data privacy. Overall, experimental results
show that one of the vectors will be penalized regardless of which of the three
we optimize. Nonetheless, we find promising avenues for future work in joint
optimization solutions, where smaller trade-offs are observed between the three
vectors.
- Abstract(参考訳): 機械学習アプリケーションのフロンティアが人間のインタラクションへと進むにつれ、自動意思決定に関する複数の懸念が生じる。
最も重要な問題の2つは、公正性とデータのプライバシーである。
一方、自動化された決定が特定のグループ、特に保護されていない、あるいは疎外されていないグループに対して偏りがないことを保証しなければならない。
一方で、個人情報の使用がプライバシー規制に完全に従うこと、およびユーザーIDが安全であることを保証する必要がある。
プライバシと公平性と予測パフォーマンスのバランスは複雑です。
しかし,それらの社会的な影響はあるものの,これらの最適化ベクトル間のダイナミクスの理解が不十分であることを示す。
本稿では,この三方向張力と各ベクトルの最適化が他者に与える影響について検討し,将来的な安全なアプリケーション開発に資することを目的とした。
予測パフォーマンスと公平性を共同で最適化できるという主張に照らして、データプライバシを犠牲にしてのみ可能であることが分かりました。
全体として、実験の結果、どのベクトルを最適化するかに関わらず、ベクトルの1つがペナル化されることが示されている。
それでも、3つのベクトル間のより小さなトレードオフが観測される共同最適化ソリューションにおける今後の研究の道のりは期待できる。
関連論文リスト
- Privacy-Preserving Distributed Optimization and Learning [2.1271873498506038]
プライバシー保護に使用できる暗号、差分プライバシー、その他の技術について議論する。
プライバシと最適化の精度を同時に確保できる差分プライバシアルゴリズムをいくつか導入する。
これらのアルゴリズムの現実的有効性を確認するために、いくつかの機械学習問題に例を挙げる。
論文 参考訳(メタデータ) (2024-02-29T22:18:05Z) - Controllable Preference Optimization: Toward Controllable Multi-Objective Alignment [103.12563033438715]
人工知能におけるアライメントは、モデル応答と人間の好みと値の一貫性を追求する。
既存のアライメント技術は、主に一方向であり、様々な目的に対して、最適以下のトレードオフと柔軟性の低下につながる。
制御可能な選好最適化(CPO)を導入し、異なる目的に対する選好スコアを明確に指定する。
論文 参考訳(メタデータ) (2024-02-29T12:12:30Z) - TeD-SPAD: Temporal Distinctiveness for Self-supervised
Privacy-preservation for video Anomaly Detection [59.04634695294402]
人間の監視のないビデオ異常検出(VAD)は複雑なコンピュータビジョンタスクである。
VADのプライバシー漏洩により、モデルは人々の個人情報に関連する不必要なバイアスを拾い上げ、増幅することができる。
本稿では,視覚的プライベート情報を自己管理的に破壊する,プライバシーに配慮したビデオ異常検出フレームワークTeD-SPADを提案する。
論文 参考訳(メタデータ) (2023-08-21T22:42:55Z) - Theoretically Principled Federated Learning for Balancing Privacy and
Utility [61.03993520243198]
モデルパラメータを歪ませることでプライバシを保護する保護機構の一般学習フレームワークを提案する。
フェデレートされた学習における各コミュニケーションラウンドにおいて、各クライアント上の各モデルパラメータに対して、パーソナライズされたユーティリティプライバシトレードオフを実現することができる。
論文 参考訳(メタデータ) (2023-05-24T13:44:02Z) - Differential Privacy via Distributionally Robust Optimization [8.409434654561789]
非漸近的かつ無条件の最適性を保証するメカニズムのクラスを開発する。
上界 (primal) は実装可能な摂動に対応しており、その準最適性は下界 (dual) で有界である。
数値実験により、我々の摂動は、人工的および標準ベンチマーク問題に関する文献から得られた最も優れた結果よりも優れていることが示された。
論文 参考訳(メタデータ) (2023-04-25T09:31:47Z) - Best Practices for 2-Body Pose Forecasting [58.661899246497896]
我々は、人間のポーズ予測の進捗状況を概観し、最善を尽くす一対一の実践を詳細に評価する。
他の1人のプラクティスは2体に移行しないため、提案されているベストプラクティスは階層的なボディモデリングや注目に基づくインタラクションエンコーディングは含まない。
提案した2体ポーズによるベストプラクティス予測では,最新のExPIデータセットのパフォーマンスが21.9%向上した。
論文 参考訳(メタデータ) (2023-04-12T10:46:23Z) - Privacy-Preserving Distributed Expectation Maximization for Gaussian
Mixture Model using Subspace Perturbation [4.2698418800007865]
フェデレーション学習は、プライベートデータの送信を許可せず、中間更新のみを許可するため、プライバシー上の懸念によって動機付けられている。
我々は、各ステップの更新を安全に計算できる、完全に分散化されたプライバシ保存ソリューションを提案する。
数値検証により,提案手法は,精度とプライバシの両面において,既存手法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2022-09-16T09:58:03Z) - Decentralized Stochastic Optimization with Inherent Privacy Protection [103.62463469366557]
分散最適化は、現代の協調機械学習、分散推定と制御、大規模センシングの基本的な構成要素である。
データが関与して以降、分散最適化アルゴリズムの実装において、プライバシ保護がますます重要になっている。
論文 参考訳(メタデータ) (2022-05-08T14:38:23Z) - Towards a Data Privacy-Predictive Performance Trade-off [2.580765958706854]
分類タスクにおけるデータプライバシと予測性能のトレードオフの存在を評価する。
従来の文献とは異なり、プライバシーのレベルが高ければ高いほど、予測性能が向上することを確認した。
論文 参考訳(メタデータ) (2022-01-13T21:48:51Z) - Differentially Private and Fair Deep Learning: A Lagrangian Dual
Approach [54.32266555843765]
本稿では,個人の機密情報のプライバシを保護するとともに,非差別的予測器の学習を可能にするモデルについて検討する。
この方法は、微分プライバシーの概念と、公正性制約を満たすニューラルネットワークの設計にラグランジアン双対性(Lagrangian duality)を用いることに依存している。
論文 参考訳(メタデータ) (2020-09-26T10:50:33Z) - SPEED: Secure, PrivatE, and Efficient Deep learning [2.283665431721732]
私たちは、強力なプライバシー制約に対処できるディープラーニングフレームワークを導入します。
協調学習、差分プライバシー、同型暗号化に基づいて、提案手法は最先端技術に進化する。
論文 参考訳(メタデータ) (2020-06-16T19:31:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。