論文の概要: FLOSS: Federated Learning with Opt-Out and Straggler Support
- arxiv url: http://arxiv.org/abs/2507.23115v1
- Date: Wed, 30 Jul 2025 21:34:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-01 17:19:08.811503
- Title: FLOSS: Federated Learning with Opt-Out and Straggler Support
- Title(参考訳): FLOSS: Opt-OutとStragglerをサポートしたフェデレーションラーニング
- Authors: David J Goetze, Dahlia J Felten, Jeannie R Albrecht, Rohit Bhattacharya,
- Abstract要約: 現代のデータプライバシ契約は、ユーザが望んだデータを共有することを避けながら、システムを使用することを可能にする。
その結果、バイアスを導入し、モデルパフォーマンスを低下させるさまざまなソースからのデータが失われる。
FLOSSは,トラグラーやユーザオプトアウトの存在下でのフェデレーション学習における,そのような欠落データの影響を緩和するシステムである。
- 参考スコア(独自算出の注目度): 1.8499314936771563
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Previous work on data privacy in federated learning systems focuses on privacy-preserving operations for data from users who have agreed to share their data for training. However, modern data privacy agreements also empower users to use the system while opting out of sharing their data as desired. When combined with stragglers that arise from heterogeneous device capabilities, the result is missing data from a variety of sources that introduces bias and degrades model performance. In this paper, we present FLOSS, a system that mitigates the impacts of such missing data on federated learning in the presence of stragglers and user opt-out, and empirically demonstrate its performance in simulations.
- Abstract(参考訳): フェデレーション学習システムにおけるデータプライバシに関するこれまでの研究は、トレーニングのためにデータを共有することに合意したユーザのデータに対するプライバシ保護操作に焦点を当てていた。
しかし、現代のデータプライバシ契約により、ユーザーは自分のデータを共有することを望まないまま、システムを使用することができる。
不均一なデバイス機能から生じるストラグラーと組み合わせると、バイアスを導入してモデルパフォーマンスを低下させるさまざまなソースからのデータが失われる。
本稿では,トラグラーやユーザオプトアウトの存在下でのフェデレーション学習における,これらの欠落データの影響を軽減し,シミュレーションでその性能を実証的に示すシステムFLOSSを提案する。
関連論文リスト
- Non-IID data in Federated Learning: A Survey with Taxonomy, Metrics, Methods, Frameworks and Future Directions [2.9434966603161072]
フェデレートラーニング(FL)は、プライベートデータを共有せずにMLモデルを集合的にトレーニングすることを可能にする。
FLは、クライアントにまたがるデータが独立で、同一に分散された(非IID)データである場合に苦労する。
この技術調査は、非IIDデータ、パーティションプロトコル、メトリクスの詳細な分類を提供することで、このギャップを埋めることを目的としています。
論文 参考訳(メタデータ) (2024-11-19T09:53:28Z) - Approximate Gradient Coding for Privacy-Flexible Federated Learning with Non-IID Data [9.984630251008868]
この研究は、フェデレートラーニングにおける非IIDデータとストラグラー/ドロップアウトの課題に焦点を当てる。
クライアントのローカルデータの一部を非プライベートとしてモデル化する、プライバシフレキシブルなパラダイムを導入し、検討する。
論文 参考訳(メタデータ) (2024-04-04T15:29:50Z) - FewFedPIT: Towards Privacy-preserving and Few-shot Federated Instruction Tuning [54.26614091429253]
フェデレーション・インストラクション・チューニング(FedIT)は、複数のデータ所有者間で協調的なトレーニングを統合することで、有望なソリューションである。
FedITは、インストラクショナルデータの不足や、トレーニングデータ抽出攻撃への露出リスクなどの制限に直面している。
本稿では,FewFedPITを提案する。このFewFedPITは,フェデレートされた数ショット学習のプライバシー保護とモデル性能を同時に向上する。
論文 参考訳(メタデータ) (2024-03-10T08:41:22Z) - Personalized Federated Learning with Attention-based Client Selection [57.71009302168411]
我々は,意図に基づくクライアント選択機構を備えた新しいPFLアルゴリズムであるFedACSを提案する。
FedACSは、類似したデータ分散を持つクライアント間のコラボレーションを強化するためのアテンションメカニズムを統合している。
CIFAR10とFMNISTの実験は、FedACSの優位性を検証する。
論文 参考訳(メタデータ) (2023-12-23T03:31:46Z) - Privacy Side Channels in Machine Learning Systems [87.53240071195168]
プライバシサイドチャネルは、システムレベルのコンポーネントを利用してプライベート情報を抽出する攻撃である。
例えば、差分プライベートなトレーニングを適用する前にトレーニングデータを重複させることで、保証可能なプライバシ保証を完全に無効にするサイドチャネルが生成されることを示す。
さらに,学習データセットに含まれる秘密鍵を抽出するために,言語モデルを学習データ再生からブロックするシステムを利用することを示す。
論文 参考訳(メタデータ) (2023-09-11T16:49:05Z) - Rethinking Data Heterogeneity in Federated Learning: Introducing a New
Notion and Standard Benchmarks [65.34113135080105]
我々は、現在のセットアップにおけるデータ不均一性の問題が必ずしも問題であるだけでなく、FL参加者にとって有益であることを示す。
私たちの観察は直感的である。
私たちのコードはhttps://github.com/MMorafah/FL-SC-NIIDで利用可能です。
論文 参考訳(メタデータ) (2022-09-30T17:15:19Z) - Federated Learning in Non-IID Settings Aided by Differentially Private
Synthetic Data [20.757477553095637]
Federated Learning(FL)は、クライアントが機械学習モデルを協調的にトレーニングすることを可能にする、プライバシプロモーティングフレームワークである。
連合学習における大きな課題は、局所データが不均一であるときに生じる。
我々は、クライアントが変動自動エンコーダをデプロイして、遅延データ表現の微分プライベートな手段を用いて、ローカルデータセットを合成するFLアルゴリズムであるFedDPMSを提案する。
論文 参考訳(メタデータ) (2022-06-01T18:00:48Z) - Jointly Learning from Decentralized (Federated) and Centralized Data to
Mitigate Distribution Shift [2.9965560298318468]
フェデレートラーニング(FL)は、エッジデバイス上で学習が一括して行われる、ますます使われるパラダイムである。
デバイス上のトレーニング例では、推論時に発生すると思われるデータ入力が不足している可能性がある。
本稿では、FLと混在するデータセンターデータの選択的使用法である、このシフトを緩和する方法を提案する。
論文 参考訳(メタデータ) (2021-11-23T20:51:24Z) - Federated Mixture of Experts [94.25278695272874]
FedMixは特別なモデルのアンサンブルをトレーニングできるフレームワークです。
類似したデータ特性を持つユーザが同じメンバーを選択して統計的強度を共有することを示す。
論文 参考訳(メタデータ) (2021-07-14T14:15:24Z) - A Principled Approach to Data Valuation for Federated Learning [73.19984041333599]
フェデレートラーニング(FL)は、分散データソース上で機械学習(ML)モデルをトレーニングする一般的なテクニックである。
Shapley value (SV) はデータ値の概念として多くのデシラタを満たすユニークなペイオフスキームを定義する。
本稿では,FL に対応する SV の変種を提案する。
論文 参考訳(メタデータ) (2020-09-14T04:37:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。