論文の概要: A Multivocal Literature Review on Privacy and Fairness in Federated Learning
- arxiv url: http://arxiv.org/abs/2408.08666v1
- Date: Fri, 16 Aug 2024 11:15:52 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-19 15:45:35.005690
- Title: A Multivocal Literature Review on Privacy and Fairness in Federated Learning
- Title(参考訳): フェデレーション学習におけるプライバシと公正性に関する多言語文献レビュー
- Authors: Beatrice Balbierer, Lukas Heinlein, Domenique Zipperling, Niklas Kühl,
- Abstract要約: フェデレーション学習は、データ共有の必要性を排除することによって、AIアプリケーションに革命をもたらす手段を提供する。
最近の研究では、プライバシと公平性の間に固有の緊張が示されています。
プライバシーと公正性の関係は無視され、現実世界のアプリケーションにとって重大なリスクをもたらしている、と我々は主張する。
- 参考スコア(独自算出の注目度): 1.6124402884077915
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Federated Learning presents a way to revolutionize AI applications by eliminating the necessity for data sharing. Yet, research has shown that information can still be extracted during training, making additional privacy-preserving measures such as differential privacy imperative. To implement real-world federated learning applications, fairness, ranging from a fair distribution of performance to non-discriminative behaviour, must be considered. Particularly in high-risk applications (e.g. healthcare), avoiding the repetition of past discriminatory errors is paramount. As recent research has demonstrated an inherent tension between privacy and fairness, we conduct a multivocal literature review to examine the current methods to integrate privacy and fairness in federated learning. Our analyses illustrate that the relationship between privacy and fairness has been neglected, posing a critical risk for real-world applications. We highlight the need to explore the relationship between privacy, fairness, and performance, advocating for the creation of integrated federated learning frameworks.
- Abstract(参考訳): フェデレートラーニング(Federated Learning)は、データ共有の必要性を排除することによって、AIアプリケーションに革命をもたらす方法を提供する。
しかし、研究によると、情報はまだトレーニング中に抽出可能であることが示されており、差分プライバシー命令のようなプライバシー保護対策が加えられている。
実世界のフェデレーション学習アプリケーションを実装するには、パフォーマンスの公平な分布から非差別的行動まで、公平性を考慮する必要がある。
特に、リスクの高いアプリケーション(例えば医療)では、過去の差別的エラーの繰り返しを避けることが最重要である。
近年の研究では、プライバシとフェアネスの間に固有の緊張関係が示されており、フェデレートラーニングにおけるプライバシとフェアネスを統合するための現在の方法を検討するために、多言語文献レビューを実施している。
分析の結果,プライバシと公正性の関係は無視され,現実世界のアプリケーションにとって重大なリスクが生じたことが示唆された。
我々は、プライバシ、公平性、パフォーマンスの関係を探求する必要性を強調し、統合された学習フレームワークの作成を提唱する。
関連論文リスト
- DEAN: Deactivating the Coupled Neurons to Mitigate Fairness-Privacy Conflicts in Large Language Models [34.73299042341535]
公平性とプライバシに結合したtextbfDEAN (textbfDEAN) をテキストbfDEアクティベートするためのトレーニングフリー手法を導入し, 公正性とプライバシ意識の相互情報を理論的かつ実証的に低減する。
大規模な実験結果から,DEANはトレードオフ現象を排除し,LLMの公平性とプライバシ意識を同時に向上することが示された。
論文 参考訳(メタデータ) (2024-10-22T04:08:27Z) - Towards Split Learning-based Privacy-Preserving Record Linkage [49.1574468325115]
ユーザデータのプライバシが要求されるアプリケーションを容易にするために、Split Learningが導入されている。
本稿では,プライバシ保護記録マッチングのための分割学習の可能性について検討する。
論文 参考訳(メタデータ) (2024-09-02T09:17:05Z) - Linkage on Security, Privacy and Fairness in Federated Learning: New Balances and New Perspectives [48.48294460952039]
この調査は、フェデレートラーニングにおけるプライバシー、セキュリティ、公平性の問題に関する包括的な説明を提供する。
プライバシーと公平性と、セキュリティと共有の間にはトレードオフがある、と私たちは主張する。
論文 参考訳(メタデータ) (2024-06-16T10:31:45Z) - Differentially Private Federated Learning: A Systematic Review [35.13641504685795]
本稿では,様々な差分プライバシモデルとシナリオの定義と保証に基づく,差分私的フェデレーション学習の新しい分類法を提案する。
本研究は,プライバシ保護フェデレーション学習に関する貴重な知見を提供し,今後の研究に向けた実践的方向性を提案する。
論文 参考訳(メタデータ) (2024-05-14T03:49:14Z) - Privacy for Fairness: Information Obfuscation for Fair Representation
Learning with Local Differential Privacy [26.307780067808565]
本研究では,プライバシと公正性の相互作用を包括的に検証するための理論的枠組みを提案する。
公平な表現学習のための情報ボトルネック(IB)に基づく情報難読化手法(LDP)を開発し,解析する。
MLにおける公平性に関する実証的研究とは対照的に,符号化過程における LDP のランダム化は,学習された表現の公平性を高めることができることを示す。
論文 参考訳(メタデータ) (2024-02-16T06:35:10Z) - Can LLMs Keep a Secret? Testing Privacy Implications of Language Models via Contextual Integrity Theory [82.7042006247124]
私たちは、最も有能なAIモデルでさえ、人間がそれぞれ39%と57%の確率で、プライベートな情報を公開していることを示しています。
我々の研究は、推論と心の理論に基づいて、新しい推論時プライバシー保護アプローチを即時に探求する必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2023-10-27T04:15:30Z) - Holistic Survey of Privacy and Fairness in Machine Learning [10.399352534861292]
プライバシと公正性は、責任ある人工知能(AI)と信頼できる機械学習(ML)の重要な柱である
かなりの関心があるにもかかわらず、これらの2つの目的がMLモデルにどのように同時に統合できるかを解明するために、より詳細な研究が必要である。
我々は、教師なし、教師なし、半教師なし、強化学習を含む、MLにおけるプライバシーと公正性の徹底的なレビューを提供する。
論文 参考訳(メタデータ) (2023-07-28T23:39:29Z) - A Comprehensive Survey of Forgetting in Deep Learning Beyond Continual
Learning [76.47138162283714]
蓄積とは、以前取得した情報や知識の喪失または劣化を指す。
フォッテッティングは、深層学習における様々な研究領域でよく見られる現象である。
調査では、忘れることは二重刃の剣であり、ある場合には有益で望ましいと論じている。
論文 参考訳(メタデータ) (2023-07-16T16:27:58Z) - Privacy and Fairness in Federated Learning: on the Perspective of
Trade-off [58.204074436129716]
フェデレートラーニング(FL)は近年ホットな話題となっている。
2つの重要な倫理的概念として、プライバシと公平性の相互作用は比較的研究されていない。
論文 参考訳(メタデータ) (2023-06-25T04:38:19Z) - Differentially Private and Fair Deep Learning: A Lagrangian Dual
Approach [54.32266555843765]
本稿では,個人の機密情報のプライバシを保護するとともに,非差別的予測器の学習を可能にするモデルについて検討する。
この方法は、微分プライバシーの概念と、公正性制約を満たすニューラルネットワークの設計にラグランジアン双対性(Lagrangian duality)を用いることに依存している。
論文 参考訳(メタデータ) (2020-09-26T10:50:33Z) - Differentially private cross-silo federated learning [16.38610531397378]
厳密なプライバシは、分散機械学習において最重要事項である。
本稿では,いわゆるクロスサイロ・フェデレーション・ラーニング・セッティングにおいて,加算準同型セキュア和プロトコルと差分プライバシーを併用する。
提案手法により,非分散設定に匹敵する予測精度が得られることを示す。
論文 参考訳(メタデータ) (2020-07-10T18:15:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。