論文の概要: Holistic Survey of Privacy and Fairness in Machine Learning
- arxiv url: http://arxiv.org/abs/2307.15838v1
- Date: Fri, 28 Jul 2023 23:39:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-01 19:14:58.796034
- Title: Holistic Survey of Privacy and Fairness in Machine Learning
- Title(参考訳): 機械学習におけるプライバシーと公平性の総合的調査
- Authors: Sina Shaham, Arash Hajisafi, Minh K Quan, Dinh C Nguyen, Bhaskar
Krishnamachari, Charith Peris, Gabriel Ghinita, Cyrus Shahabi, Pubudu N.
Pathirana
- Abstract要約: プライバシと公正性は、責任ある人工知能(AI)と信頼できる機械学習(ML)の重要な柱である
かなりの関心があるにもかかわらず、これらの2つの目的がMLモデルにどのように同時に統合できるかを解明するために、より詳細な研究が必要である。
我々は、教師なし、教師なし、半教師なし、強化学習を含む、MLにおけるプライバシーと公正性の徹底的なレビューを提供する。
- 参考スコア(独自算出の注目度): 10.399352534861292
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Privacy and fairness are two crucial pillars of responsible Artificial
Intelligence (AI) and trustworthy Machine Learning (ML). Each objective has
been independently studied in the literature with the aim of reducing utility
loss in achieving them. Despite the significant interest attracted from both
academia and industry, there remains an immediate demand for more in-depth
research to unravel how these two objectives can be simultaneously integrated
into ML models. As opposed to well-accepted trade-offs, i.e., privacy-utility
and fairness-utility, the interrelation between privacy and fairness is not
well-understood. While some works suggest a trade-off between the two objective
functions, there are others that demonstrate the alignment of these functions
in certain scenarios. To fill this research gap, we provide a thorough review
of privacy and fairness in ML, including supervised, unsupervised,
semi-supervised, and reinforcement learning. After examining and consolidating
the literature on both objectives, we present a holistic survey on the impact
of privacy on fairness, the impact of fairness on privacy, existing
architectures, their interaction in application domains, and algorithms that
aim to achieve both objectives while minimizing the utility sacrificed.
Finally, we identify research challenges in achieving privacy and fairness
concurrently in ML, particularly focusing on large language models.
- Abstract(参考訳): プライバシと公正性は、責任ある人工知能(AI)と信頼できる機械学習(ML)の2つの重要な柱である。
それぞれの目的が文学の中で独立に研究され、その達成におけるユーティリティの損失を減らすことを目的としている。
学術と産業の両方から大きな関心が寄せられているにもかかわらず、これらの2つの目的がMLモデルにどのように同時に統合できるかを解明するために、より詳細な研究が必要である。
プライバシーの効用と公正の効用という、よく認められたトレードオフとは対照的に、プライバシーと公正の相互関係はよく理解されていない。
2つの目的関数間のトレードオフを示唆する研究もあるが、特定のシナリオにおけるこれらの関数のアライメントを示すものもある。
この研究ギャップを埋めるために、教師なし、教師なし、半教師なし、強化学習を含むMLのプライバシーと公正性の徹底的なレビューを提供する。
両目的の文献を整理し,両目的について検討した結果,プライバシが公平性に与える影響,公平性がプライバシに与える影響,既存のアーキテクチャ,アプリケーションドメインにおけるそれらのインタラクション,両目的を最小化しつつ両目的を達成することを目的としたアルゴリズムについて総合的な調査を行った。
最後に、MLにおけるプライバシと公平性を同時に達成する研究課題、特に大規模言語モデルに焦点を当てる。
関連論文リスト
- Effectiveness Assessment of Recent Large Vision-Language Models [82.08377770649777]
専門的・汎用的なタスクにおいて,一般的な大規模視覚言語モデル(LVLM)の能力を評価する。
視覚認識とローカライゼーションの領域における最近の3つのオープンソースLVLM(MiniGPT-v2,LLaVA-1.5,Shikra)の性能について検討する。
本研究により, これらのモデルは, 特殊タスクだけでなく, 一般タスクにおいても, 限られた習熟度を示すことが明らかとなった。
論文 参考訳(メタデータ) (2024-03-07T08:25:27Z) - Rethinking Machine Unlearning for Large Language Models [89.99791628154274]
大規模言語モデル(LLM)の領域における機械学習の研究
このイニシアチブは、望ましくないデータの影響(機密情報や違法情報など)と関連するモデル機能を排除することを目的としている。
論文 参考訳(メタデータ) (2024-02-13T20:51:58Z) - Robustness, Efficiency, or Privacy: Pick Two in Machine Learning [7.278033100480175]
本稿では,分散機械学習アーキテクチャにおけるプライバシとロバスト性の実現に伴うコストについて検討する。
従来のノイズ注入は、汚染された入力を隠蔽することで精度を損なうが、暗号手法は、非直線性のため、防毒と衝突する。
我々は、より弱い脅威モデルを考慮して、この妥協を効率よく解決することを目的とした今後の研究の方向性を概説する。
論文 参考訳(メタデータ) (2023-12-22T14:10:07Z) - Can LLMs Keep a Secret? Testing Privacy Implications of Language Models
via Contextual Integrity Theory [86.8514623654506]
私たちは、最も有能なAIモデルでさえ、人間がそれぞれ39%と57%の確率で、プライベートな情報を公開していることを示しています。
我々の研究は、推論と心の理論に基づいて、新しい推論時プライバシー保護アプローチを即時に探求する必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2023-10-27T04:15:30Z) - Privacy and Fairness in Federated Learning: on the Perspective of
Trade-off [58.204074436129716]
フェデレートラーニング(FL)は近年ホットな話題となっている。
2つの重要な倫理的概念として、プライバシと公平性の相互作用は比較的研究されていない。
論文 参考訳(メタデータ) (2023-06-25T04:38:19Z) - Learning with Impartiality to Walk on the Pareto Frontier of Fairness,
Privacy, and Utility [28.946180502706504]
機械学習パイプラインは、別の目的を優先すべきではない、と私たちは主張する。
本稿では,目的間の固有のトレードオフを示す,公平に特定されたモデルを提案する。
プライバシを意識したMLパイプラインに、公正さの緩和が組み込まれるべきかどうかという疑問に対する回答を提供する。
論文 参考訳(メタデータ) (2023-02-17T23:23:45Z) - Evaluating Trade-offs in Computer Vision Between Attribute Privacy,
Fairness and Utility [9.929258066313627]
本稿では,コンピュータビジョンにおけるユーティリティ,フェアネス,属性プライバシのトレードオフについて検討する。
好みの異なる様々なモデルを作成するために、フェアネスとプライバシに関連する属性に干渉する逆法を用いる。
論文 参考訳(メタデータ) (2023-02-15T19:20:51Z) - Federated Learning Meets Fairness and Differential Privacy [12.033944769247961]
本研究は,3つの尺度を同時に取り入れた倫理的フェデレーション学習モデルを提案する。
アダルト、バンク、オランダのデータセットの実験では、正確性、公平性、プライバシの間の"経験的な相互作用"が強調されている。
論文 参考訳(メタデータ) (2021-08-23T04:59:16Z) - Understanding the origin of information-seeking exploration in
probabilistic objectives for control [62.997667081978825]
探索と探索のトレードオフは適応行動の記述の中心である。
このトレードオフを解決する1つのアプローチは、エージェントが固有の「探索駆動」を持っていることを装備または提案することであった。
汎用的最大化と情報参照行動の組み合わせは, 目的の全く異なる分類の最小化から生じることを示す。
論文 参考訳(メタデータ) (2021-03-11T18:42:39Z) - Differentially Private and Fair Deep Learning: A Lagrangian Dual
Approach [54.32266555843765]
本稿では,個人の機密情報のプライバシを保護するとともに,非差別的予測器の学習を可能にするモデルについて検討する。
この方法は、微分プライバシーの概念と、公正性制約を満たすニューラルネットワークの設計にラグランジアン双対性(Lagrangian duality)を用いることに依存している。
論文 参考訳(メタデータ) (2020-09-26T10:50:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。