論文の概要: DBFed: Debiasing Federated Learning Framework based on
Domain-Independent
- arxiv url: http://arxiv.org/abs/2307.05582v1
- Date: Mon, 10 Jul 2023 14:39:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-13 16:06:15.457758
- Title: DBFed: Debiasing Federated Learning Framework based on
Domain-Independent
- Title(参考訳): dbfed: ドメインに依存しないデバイアスフェデレーション学習フレームワーク
- Authors: Jiale Li, Zhixin Li, Yibo Wang, Yao Li, Lei Wang
- Abstract要約: 本稿では,ドメイン非依存に基づくデバイアス学習フレームワークを提案する。これは,クライアント側トレーニング中に機密属性を明示的に符号化することで,モデルバイアスを緩和する。
本稿では,3つの実データセットについて実験を行い,精度と公平性の5つの評価指標を用いてモデルの効果を定量的に評価する。
- 参考スコア(独自算出の注目度): 15.639705798326213
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As digital transformation continues, enterprises are generating, managing,
and storing vast amounts of data, while artificial intelligence technology is
rapidly advancing. However, it brings challenges in information security and
data security. Data security refers to the protection of digital information
from unauthorized access, damage, theft, etc. throughout its entire life cycle.
With the promulgation and implementation of data security laws and the emphasis
on data security and data privacy by organizations and users,
Privacy-preserving technology represented by federated learning has a wide
range of application scenarios. Federated learning is a distributed machine
learning computing framework that allows multiple subjects to train joint
models without sharing data to protect data privacy and solve the problem of
data islands. However, the data among multiple subjects are independent of each
other, and the data differences in quality may cause fairness issues in
federated learning modeling, such as data bias among multiple subjects,
resulting in biased and discriminatory models. Therefore, we propose DBFed, a
debiasing federated learning framework based on domain-independent, which
mitigates model bias by explicitly encoding sensitive attributes during
client-side training. This paper conducts experiments on three real datasets
and uses five evaluation metrics of accuracy and fairness to quantify the
effect of the model. Most metrics of DBFed exceed those of the other three
comparative methods, fully demonstrating the debiasing effect of DBFed.
- Abstract(参考訳): デジタルトランスフォーメーションが進むにつれて、企業は大量のデータを生成、管理、保存し、人工知能技術は急速に進歩している。
しかし、これは情報セキュリティとデータセキュリティに課題をもたらす。
データセキュリティは、そのライフサイクル全体を通して、不正アクセス、損害、盗難などからのデジタル情報の保護を指す。
データセキュリティ法の公布と実装、組織とユーザによるデータセキュリティとデータプライバシの重視により、連合学習で代表されるプライバシ保護技術は、幅広いアプリケーションシナリオを持つ。
Federated Learningは分散機械学習コンピューティングフレームワークで、複数の被験者がデータを共有せずにジョイントモデルをトレーニングし、データのプライバシを保護し、データアイランドの問題を解決する。
しかし、複数の被験者間のデータは互いに独立しており、品質の差は、複数の被験者間でのデータバイアスのような連合学習モデルにおいて公平性の問題を引き起こす可能性がある。
そこで我々は,dbfed を提案する。dbfed は,クライアント側のトレーニング中に機密属性を明示的にエンコードすることにより,モデルバイアスを軽減し,ドメインに依存しない分散学習フレームワークである。
本稿では,3つの実データセットについて実験を行い,モデルの効果を定量化するために5つの評価指標を用いた。
DBFedの指標のほとんどは、他の3つの比較手法の指標を超え、DBFedのデバイアス効果を完全に証明している。
関連論文リスト
- FewFedPIT: Towards Privacy-preserving and Few-shot Federated Instruction Tuning [54.26614091429253]
フェデレーション・インストラクション・チューニング(FedIT)は、複数のデータ所有者間で協調的なトレーニングを統合することで、有望なソリューションである。
FedITは、インストラクショナルデータの不足や、トレーニングデータ抽出攻撃への露出リスクなどの制限に直面している。
本稿では,FewFedPITを提案する。このFewFedPITは,フェデレートされた数ショット学習のプライバシー保護とモデル性能を同時に向上する。
論文 参考訳(メタデータ) (2024-03-10T08:41:22Z) - Privacy-Enhancing Collaborative Information Sharing through Federated
Learning -- A Case of the Insurance Industry [1.8092553911119764]
このレポートは、複数の保険業界データセットにまたがる単一のモデルを学ぶために、フェデレートラーニング(FL)の価値を活用する利点を実証している。
FLは、プライバシの懸念によって引き起こされる、データボリュームの制限とデータの多様性の2つに対処する。
FLの各ラウンドにおいて、コラボレータはローカルなプライベートデータを使用してモデルの改善を計算し、これらの洞察を組み合わせてグローバルなモデルを更新する。
論文 参考訳(メタデータ) (2024-02-22T21:46:24Z) - Federated Learning Empowered by Generative Content [55.576885852501775]
フェデレートラーニング(FL)は、プライバシ保護方法でモデルのトレーニングに分散プライベートデータを活用可能にする。
本稿では,FedGCと呼ばれる新しいFLフレームワークを提案する。
我々は、さまざまなベースライン、データセット、シナリオ、モダリティをカバーする、FedGCに関する体系的な実証的研究を行う。
論文 参考訳(メタデータ) (2023-12-10T07:38:56Z) - Approximate, Adapt, Anonymize (3A): a Framework for Privacy Preserving
Training Data Release for Machine Learning [3.29354893777827]
データリリースフレームワークである3A(Approximate, Adapt, Anonymize)を導入し、機械学習のデータユーティリティを最大化する。
本稿では,実データセットと民生データセットでトレーニングしたモデルの性能指標の相違が最小限に抑えられることを示す実験的な証拠を示す。
論文 参考訳(メタデータ) (2023-07-04T18:37:11Z) - Benchmarking FedAvg and FedCurv for Image Classification Tasks [1.376408511310322]
本稿では,同じフェデレーションネットワークにおけるデータの統計的不均一性の問題に焦点をあてる。
FedAvg、FedProx、Federated Curvature(FedCurv)など、いくつかのフェデレートラーニングアルゴリズムがすでに提案されている。
この研究の副産物として、FLコミュニティからのさらなる比較を容易にするために使用したデータセットの非IIDバージョンをリリースします。
論文 参考訳(メタデータ) (2023-03-31T10:13:01Z) - Adversarial Representation Sharing: A Quantitative and Secure
Collaborative Learning Framework [3.759936323189418]
コミュニケーションのオーバーヘッドが低く,タスク依存度が低いため,共同学習において表現学習には独特なアドバンテージがあることがわかった。
ARSは、ユーザがモデルを訓練するためにデータの表現を共有する協調学習フレームワークである。
我々は,本機構がモデル逆攻撃に対して有効であることを実証し,プライバシとユーティリティのバランスを実現する。
論文 参考訳(メタデータ) (2022-03-27T13:29:15Z) - Representative & Fair Synthetic Data [68.8204255655161]
公平性制約を自己監督学習プロセスに組み込むためのフレームワークを提示する。
私たちはuci成人国勢調査データセットの代表者および公正版を作成します。
我々は、代表的かつ公正な合成データを将来有望なビルディングブロックとみなし、歴史的世界ではなく、私たちが生きようとしている世界についてアルゴリズムを教える。
論文 参考訳(メタデータ) (2021-04-07T09:19:46Z) - Decentralized Federated Learning Preserves Model and Data Privacy [77.454688257702]
我々は、訓練されたモデル間で知識を共有することができる、完全に分散化されたアプローチを提案する。
生徒は、合成された入力データを通じて教師の出力を訓練する。
その結果,教師が学習した未学習学生モデルが,教師と同等のF1スコアに達することがわかった。
論文 参考訳(メタデータ) (2021-02-01T14:38:54Z) - Vertical federated learning based on DFP and BFGS [0.0]
本稿では,dfp と bfgs (bdfl) を用いた新しい垂直フェデレート学習フレームワークを提案する。
実データセットを用いてBDFLフレームワークの効率性をテストする。
論文 参考訳(メタデータ) (2021-01-23T06:15:04Z) - Trustworthy AI [75.99046162669997]
入力データの小さな敵対的変化への脆さ、決定の説明能力、トレーニングデータのバイアスに対処する能力は、最も顕著な制限である。
我々は,AIシステムに対するユーザおよび公的な信頼を高める上での6つの重要な問題に対処するために,信頼に値するAIに関するチュートリアルを提案する。
論文 参考訳(メタデータ) (2020-11-02T20:04:18Z) - WAFFLe: Weight Anonymized Factorization for Federated Learning [88.44939168851721]
データが機密性やプライベート性を持つドメインでは、ローカルデバイスを離れることなく、分散的に学習できるメソッドには大きな価値があります。
本稿では,フェデレートラーニングのためのウェイト匿名化因子化(WAFFLe)を提案する。これは,インド・バフェット・プロセスとニューラルネットワークの重み要因の共有辞書を組み合わせたアプローチである。
論文 参考訳(メタデータ) (2020-08-13T04:26:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。