論文の概要: Holistic Survey of Privacy and Fairness in Machine Learning
- arxiv url: http://arxiv.org/abs/2307.15838v1
- Date: Fri, 28 Jul 2023 23:39:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-01 19:14:58.796034
- Title: Holistic Survey of Privacy and Fairness in Machine Learning
- Title(参考訳): 機械学習におけるプライバシーと公平性の総合的調査
- Authors: Sina Shaham, Arash Hajisafi, Minh K Quan, Dinh C Nguyen, Bhaskar
Krishnamachari, Charith Peris, Gabriel Ghinita, Cyrus Shahabi, Pubudu N.
Pathirana
- Abstract要約: プライバシと公正性は、責任ある人工知能(AI)と信頼できる機械学習(ML)の重要な柱である
かなりの関心があるにもかかわらず、これらの2つの目的がMLモデルにどのように同時に統合できるかを解明するために、より詳細な研究が必要である。
我々は、教師なし、教師なし、半教師なし、強化学習を含む、MLにおけるプライバシーと公正性の徹底的なレビューを提供する。
- 参考スコア(独自算出の注目度): 10.399352534861292
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Privacy and fairness are two crucial pillars of responsible Artificial
Intelligence (AI) and trustworthy Machine Learning (ML). Each objective has
been independently studied in the literature with the aim of reducing utility
loss in achieving them. Despite the significant interest attracted from both
academia and industry, there remains an immediate demand for more in-depth
research to unravel how these two objectives can be simultaneously integrated
into ML models. As opposed to well-accepted trade-offs, i.e., privacy-utility
and fairness-utility, the interrelation between privacy and fairness is not
well-understood. While some works suggest a trade-off between the two objective
functions, there are others that demonstrate the alignment of these functions
in certain scenarios. To fill this research gap, we provide a thorough review
of privacy and fairness in ML, including supervised, unsupervised,
semi-supervised, and reinforcement learning. After examining and consolidating
the literature on both objectives, we present a holistic survey on the impact
of privacy on fairness, the impact of fairness on privacy, existing
architectures, their interaction in application domains, and algorithms that
aim to achieve both objectives while minimizing the utility sacrificed.
Finally, we identify research challenges in achieving privacy and fairness
concurrently in ML, particularly focusing on large language models.
- Abstract(参考訳): プライバシと公正性は、責任ある人工知能(AI)と信頼できる機械学習(ML)の2つの重要な柱である。
それぞれの目的が文学の中で独立に研究され、その達成におけるユーティリティの損失を減らすことを目的としている。
学術と産業の両方から大きな関心が寄せられているにもかかわらず、これらの2つの目的がMLモデルにどのように同時に統合できるかを解明するために、より詳細な研究が必要である。
プライバシーの効用と公正の効用という、よく認められたトレードオフとは対照的に、プライバシーと公正の相互関係はよく理解されていない。
2つの目的関数間のトレードオフを示唆する研究もあるが、特定のシナリオにおけるこれらの関数のアライメントを示すものもある。
この研究ギャップを埋めるために、教師なし、教師なし、半教師なし、強化学習を含むMLのプライバシーと公正性の徹底的なレビューを提供する。
両目的の文献を整理し,両目的について検討した結果,プライバシが公平性に与える影響,公平性がプライバシに与える影響,既存のアーキテクチャ,アプリケーションドメインにおけるそれらのインタラクション,両目的を最小化しつつ両目的を達成することを目的としたアルゴリズムについて総合的な調査を行った。
最後に、MLにおけるプライバシと公平性を同時に達成する研究課題、特に大規模言語モデルに焦点を当てる。
関連論文リスト
- A Multivocal Literature Review on Privacy and Fairness in Federated Learning [1.6124402884077915]
フェデレーション学習は、データ共有の必要性を排除することによって、AIアプリケーションに革命をもたらす手段を提供する。
最近の研究では、プライバシと公平性の間に固有の緊張が示されています。
プライバシーと公正性の関係は無視され、現実世界のアプリケーションにとって重大なリスクをもたらしている、と我々は主張する。
論文 参考訳(メタデータ) (2024-08-16T11:15:52Z) - Linkage on Security, Privacy and Fairness in Federated Learning: New Balances and New Perspectives [48.48294460952039]
この調査は、フェデレートラーニングにおけるプライバシー、セキュリティ、公平性の問題に関する包括的な説明を提供する。
プライバシーと公平性と、セキュリティと共有の間にはトレードオフがある、と私たちは主張する。
論文 参考訳(メタデータ) (2024-06-16T10:31:45Z) - Rethinking Machine Unlearning for Large Language Models [85.92660644100582]
大規模言語モデル(LLM)の領域における機械学習の研究
このイニシアチブは、望ましくないデータの影響(機密情報や違法情報など)と関連するモデル機能を排除することを目的としている。
論文 参考訳(メタデータ) (2024-02-13T20:51:58Z) - Robustness, Efficiency, or Privacy: Pick Two in Machine Learning [7.278033100480175]
本稿では,分散機械学習アーキテクチャにおけるプライバシとロバスト性の実現に伴うコストについて検討する。
従来のノイズ注入は、汚染された入力を隠蔽することで精度を損なうが、暗号手法は、非直線性のため、防毒と衝突する。
我々は、より弱い脅威モデルを考慮して、この妥協を効率よく解決することを目的とした今後の研究の方向性を概説する。
論文 参考訳(メタデータ) (2023-12-22T14:10:07Z) - Can LLMs Keep a Secret? Testing Privacy Implications of Language Models via Contextual Integrity Theory [82.7042006247124]
私たちは、最も有能なAIモデルでさえ、人間がそれぞれ39%と57%の確率で、プライベートな情報を公開していることを示しています。
我々の研究は、推論と心の理論に基づいて、新しい推論時プライバシー保護アプローチを即時に探求する必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2023-10-27T04:15:30Z) - Privacy and Fairness in Federated Learning: on the Perspective of
Trade-off [58.204074436129716]
フェデレートラーニング(FL)は近年ホットな話題となっている。
2つの重要な倫理的概念として、プライバシと公平性の相互作用は比較的研究されていない。
論文 参考訳(メタデータ) (2023-06-25T04:38:19Z) - Learning with Impartiality to Walk on the Pareto Frontier of Fairness,
Privacy, and Utility [28.946180502706504]
機械学習パイプラインは、別の目的を優先すべきではない、と私たちは主張する。
本稿では,目的間の固有のトレードオフを示す,公平に特定されたモデルを提案する。
プライバシを意識したMLパイプラインに、公正さの緩和が組み込まれるべきかどうかという疑問に対する回答を提供する。
論文 参考訳(メタデータ) (2023-02-17T23:23:45Z) - Understanding the origin of information-seeking exploration in
probabilistic objectives for control [62.997667081978825]
探索と探索のトレードオフは適応行動の記述の中心である。
このトレードオフを解決する1つのアプローチは、エージェントが固有の「探索駆動」を持っていることを装備または提案することであった。
汎用的最大化と情報参照行動の組み合わせは, 目的の全く異なる分類の最小化から生じることを示す。
論文 参考訳(メタデータ) (2021-03-11T18:42:39Z) - Differentially Private and Fair Deep Learning: A Lagrangian Dual
Approach [54.32266555843765]
本稿では,個人の機密情報のプライバシを保護するとともに,非差別的予測器の学習を可能にするモデルについて検討する。
この方法は、微分プライバシーの概念と、公正性制約を満たすニューラルネットワークの設計にラグランジアン双対性(Lagrangian duality)を用いることに依存している。
論文 参考訳(メタデータ) (2020-09-26T10:50:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。