論文の概要: Fairness-Driven Private Collaborative Machine Learning
- arxiv url: http://arxiv.org/abs/2109.14376v1
- Date: Wed, 29 Sep 2021 12:22:00 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-30 18:36:41.892270
- Title: Fairness-Driven Private Collaborative Machine Learning
- Title(参考訳): フェアネス駆動型プライベートコラボレーティブ機械学習
- Authors: Dana Pessach, Tamir Tassa, Erez Shmueli
- Abstract要約: 我々は、協調機械学習アルゴリズムの公正性を高めるための、実用的なプライバシ保護前処理機構を提案する。
提案手法を用いた実験により, 精度のわずかな妥協だけで, 公平性を著しく向上できることを示す。
- 参考スコア(独自算出の注目度): 7.25130576615102
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The performance of machine learning algorithms can be considerably improved
when trained over larger datasets. In many domains, such as medicine and
finance, larger datasets can be obtained if several parties, each having access
to limited amounts of data, collaborate and share their data. However, such
data sharing introduces significant privacy challenges. While multiple recent
studies have investigated methods for private collaborative machine learning,
the fairness of such collaborative algorithms was overlooked. In this work we
suggest a feasible privacy-preserving pre-process mechanism for enhancing
fairness of collaborative machine learning algorithms. Our experimentation with
the proposed method shows that it is able to enhance fairness considerably with
only a minor compromise in accuracy.
- Abstract(参考訳): 機械学習アルゴリズムのパフォーマンスは、より大きなデータセットでトレーニングすることで大幅に改善される。
医療やファイナンスなどの多くのドメインでは、複数のパーティがそれぞれ限られた量のデータにアクセスし、協力し、データを共有すれば、より大きなデータセットを得ることができる。
しかし、このようなデータ共有は大きなプライバシー問題をもたらす。
近年,プライベート・コラボレーティブ・機械学習の手法が研究されているが,そのようなコラボレーティブ・アルゴリズムの公平性は見過ごされている。
本研究では,協調機械学習アルゴリズムの公平性を高めるための,プライバシ保存前処理機構を提案する。
提案手法による実験により,精度のわずかな妥協だけで,公平性を大幅に向上できることを示す。
関連論文リスト
- Privacy-Preserving Graph Machine Learning from Data to Computation: A
Survey [67.7834898542701]
我々は,グラフ機械学習のプライバシ保護手法の見直しに重点を置いている。
まずプライバシ保護グラフデータを生成する方法を検討する。
次に,プライバシ保護情報を送信する方法について述べる。
論文 参考訳(メタデータ) (2023-07-10T04:30:23Z) - PILLAR: How to make semi-private learning more effective [12.292092677396347]
Semi-Supervised Semi-Private (SP)学習では、学習者は公開されていないラベル付きデータとプライベートラベル付きデータの両方にアクセスすることができる。
そこで本研究では,実世界のデータセット上で効率よく動作可能な,プライベートラベル付きサンプルの複雑さを著しく低減する計算効率のよいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-06-06T18:45:05Z) - Achieving Transparency in Distributed Machine Learning with Explainable
Data Collaboration [5.994347858883343]
並列的なトレンドは、データにアクセスせずに、他のデータホルダーと協調して機械学習モデルをトレーニングすることです。
本稿では,モデルに依存しない付加的特徴帰属アルゴリズムに基づく説明可能なデータ協調フレームワークを提案する。
論文 参考訳(メタデータ) (2022-12-06T23:53:41Z) - Decentralized Learning with Multi-Headed Distillation [12.90857834791378]
プライベートデータによる分散学習は、機械学習の中心的な問題である。
本研究では, 個別の非IDデータを持つ複数のエージェントが相互に学習できる, 蒸留に基づく分散学習手法を提案する。
論文 参考訳(メタデータ) (2022-11-28T21:01:43Z) - Privacy-Preserving Machine Learning for Collaborative Data Sharing via
Auto-encoder Latent Space Embeddings [57.45332961252628]
データ共有プロセスにおけるプライバシ保護機械学習は、極めて重要なタスクである。
本稿では、オートエンコーダによる表現学習を用いて、プライバシーを保護した組込みデータを生成する革新的なフレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-10T17:36:58Z) - Asynchronous Collaborative Learning Across Data Silos [9.094748832034746]
データサイロ間で機械学習モデルの非同期協調トレーニングを可能にするフレームワークを提案する。
これにより、データサイエンスチームは、データを共有することなく、機械学習モデルを協調的にトレーニングすることができる。
論文 参考訳(メタデータ) (2022-03-23T18:00:19Z) - Non-IID data and Continual Learning processes in Federated Learning: A
long road ahead [58.720142291102135]
フェデレートラーニング(Federated Learning)は、複数のデバイスや機関が、データをプライベートに保存しながら、機械学習モデルを協調的にトレーニングすることを可能にする、新しいフレームワークである。
本研究では,データの統計的不均一性を正式に分類し,それに直面することのできる最も顕著な学習戦略をレビューする。
同時に、継続学習のような他の機械学習フレームワークからのアプローチを導入し、データの不均一性にも対処し、フェデレートラーニング設定に容易に適応できるようにします。
論文 参考訳(メタデータ) (2021-11-26T09:57:11Z) - Can Active Learning Preemptively Mitigate Fairness Issues? [66.84854430781097]
データセットバイアスは、機械学習における不公平な原因の1つです。
不確実性に基づくALで訓練されたモデルが保護クラスの決定において公平であるかどうかを検討する。
また,勾配反転(GRAD)やBALDなどのアルゴリズム的公正性手法の相互作用についても検討する。
論文 参考訳(メタデータ) (2021-04-14T14:20:22Z) - Quasi-Global Momentum: Accelerating Decentralized Deep Learning on
Heterogeneous Data [77.88594632644347]
ディープラーニングモデルの分散トレーニングは、ネットワーク上でデータプライバシとデバイス上での学習を可能にする重要な要素である。
現実的な学習シナリオでは、異なるクライアントのローカルデータセットに異質性が存在することが最適化の課題となる。
本稿では,この分散学習の難しさを軽減するために,運動量に基づく新しい手法を提案する。
論文 参考訳(メタデータ) (2021-02-09T11:27:14Z) - Additively Homomorphical Encryption based Deep Neural Network for
Asymmetrically Collaborative Machine Learning [12.689643742151516]
機械学習の保存は、金融セクターにおけるさらなる適用を制限する制約を生み出す。
我々は、ある当事者がデータを所有するが、別の当事者がラベルのみを所有する新しい協調機械学習の実践的手法を提案する。
異なるデータセットに対する我々の実験は、精度のない安定したトレーニングだけでなく、100倍以上のスピードアップも示しています。
論文 参考訳(メタデータ) (2020-07-14T06:43:25Z) - User-Level Privacy-Preserving Federated Learning: Analysis and
Performance Optimization [77.43075255745389]
フェデレートラーニング(FL)は、データを有用なモデルにトレーニングしながら、モバイル端末(MT)からプライベートデータを保存することができる。
情報理論の観点からは、MTがアップロードした共有モデルから、好奇心の強いサーバがプライベートな情報を推測することが可能である。
サーバにアップロードする前に、共有モデルに人工ノイズを加えることで、ユーザレベルの差分プライバシー(UDP)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-02-29T10:13:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。