論文の概要: An Empirical Study of Bugs in Open-Source Federated Learning Framework
- arxiv url: http://arxiv.org/abs/2308.05014v1
- Date: Wed, 9 Aug 2023 15:14:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-10 13:14:58.965077
- Title: An Empirical Study of Bugs in Open-Source Federated Learning Framework
- Title(参考訳): オープンソースフェデレーション学習フレームワークにおけるバグの実証的研究
- Authors: Weijie Shao and Yuyang Gao and Fu Song and Sen Chen and Lingling Fan
- Abstract要約: Federated Learning(FL)は、ユーザのプライベートデータを保護するための分散機械学習ソリューションである。
本稿では,1,112個のFLフレームワークのバグに関する実証的研究を行い,その特性について検討する。
本研究の結果から,9つの知見を提示し,その意義について考察し,FLフレームワーク開発者やセキュリティ研究者に対して,FLフレームワークに関するいくつかの提案を行った。
- 参考スコア(独自算出の注目度): 10.909302530454205
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL), as a decentralized machine learning solution to the
protection of users' private data, has become an important learning paradigm in
recent years, especially since the enforcement of stricter laws and regulations
in most countries. Therefore, a variety of FL frameworks are released to
facilitate the development and application of federated learning. Despite the
considerable amount of research on the security and privacy of FL models and
systems, the security issues in FL frameworks have not been systematically
studied yet. In this paper, we conduct the first empirical study on 1,112 FL
framework bugs to investigate their characteristics. These bugs are manually
collected, classified, and labeled from 12 open-source FL frameworks on GitHub.
In detail, we construct taxonomies of 15 symptoms, 12 root causes, and 20 fix
patterns of these bugs and investigate their correlations and distributions on
23 logical components and two main application scenarios. From the results of
our study, we present nine findings, discuss their implications, and propound
several suggestions to FL framework developers and security researchers on the
FL frameworks.
- Abstract(参考訳): ユーザのプライベートデータを保護するための分散機械学習ソリューションであるフェデレートラーニング(FL)は,近年,特に多くの国で厳格な法律や規則が施行されて以降,重要な学習パラダイムとなっている。
そのため、フェデレート学習の開発と適用を容易にするために、さまざまなFLフレームワークがリリースされている。
FLモデルとシステムのセキュリティとプライバシに関するかなりの研究にもかかわらず、FLフレームワークのセキュリティ問題はまだ体系的に研究されていない。
本稿では,1,112個のflフレームワークのバグに関する最初の実証研究を行い,その特性について検討する。
これらのバグは、github上の12のオープンソースflフレームワークから手動で収集、分類、ラベル付けされる。
具体的には,15の症状,12の根本原因,20のバグの修正パターンの分類法を構築し,23の論理コンポーネントと2つの主なアプリケーションシナリオの相関と分布を調査した。
本研究の結果から,9つの知見を提示し,その意義について考察し,FLフレームワークの開発者やセキュリティ研究者に対していくつかの提案を行った。
関連論文リスト
- Where's the Bug? Attention Probing for Scalable Fault Localization [18.699014321422023]
本稿では, 直接的位置付けラベルを使わずに, 最先端の故障位置付けを学習するBug Attention Probe(BAP)を提案する。
BAPは計算コストのごく一部で大きなオープンウェイトモデルよりもはるかに効率的である。
論文 参考訳(メタデータ) (2025-02-19T18:59:32Z) - Leveraging Data Characteristics for Bug Localization in Deep Learning Programs [21.563130049562357]
本稿では,Deep Learning (DL)プログラムにおける構造的バグの検出とローカライズを行うTheiaを提案する。
Theiaは40のバグギープログラムにおいて57/75のバグをローカライズすることに成功しているのに対し,NeuraLintは17/75のバグをローカライズする前に構造バグをローカライズできる最先端のアプローチである。
論文 参考訳(メタデータ) (2024-12-08T01:52:06Z) - Can We Theoretically Quantify the Impacts of Local Updates on the Generalization Performance of Federated Learning? [50.03434441234569]
フェデレートラーニング(FL)は、直接データ共有を必要とせず、さまざまなサイトで機械学習モデルをトレーニングする効果により、大きな人気を集めている。
局所的な更新を伴うFLは通信効率のよい分散学習フレームワークであることが様々なアルゴリズムによって示されているが、局所的な更新によるFLの一般化性能は比較的低い。
論文 参考訳(メタデータ) (2024-09-05T19:00:18Z) - A Survey on Efficient Federated Learning Methods for Foundation Model Training [62.473245910234304]
フェデレーテッド・ラーニング(FL)は、多数のクライアントにわたるプライバシー保護協調トレーニングを促進するための確立した技術となっている。
Foundation Models (FM)の後、多くのディープラーニングアプリケーションでは現実が異なる。
FLアプリケーションに対するパラメータ効率細調整(PEFT)の利点と欠点について論じる。
論文 参考訳(メタデータ) (2024-01-09T10:22:23Z) - Deep Equilibrium Models Meet Federated Learning [71.57324258813675]
本研究では,従来の深層学習ネットワークの代わりにDeep Equilibrium(DEQ)モデルを用いて,フェデレートラーニング(FL)問題について検討する。
我々は、DECモデルをフェデレート学習フレームワークに組み込むことで、FLのいくつかのオープンな問題に自然に対処できると主張している。
我々の知る限りでは、この研究は、DECモデルとフェデレーションラーニングの関連性を確立する最初のものである。
論文 参考訳(メタデータ) (2023-05-29T22:51:40Z) - FL Games: A Federated Learning Framework for Distribution Shifts [71.98708418753786]
フェデレートラーニングは、サーバのオーケストレーションの下で、クライアント間で分散されたデータの予測モデルをトレーニングすることを目的としている。
本稿では,クライアント間で不変な因果的特徴を学習するフェデレーション学習のためのゲーム理論フレームワークFL GAMESを提案する。
論文 参考訳(メタデータ) (2022-10-31T22:59:03Z) - UniFed: All-In-One Federated Learning Platform to Unify Open-Source
Frameworks [53.20176108643942]
オープンソースフェデレートラーニング(FL)フレームワークを標準化する最初の統一プラットフォームであるUniFedを紹介します。
UniFedは、分散実験とデプロイメントのためのエンドツーエンドワークフローを合理化し、11の人気のあるオープンソースFLフレームワークを含んでいる。
機能、プライバシ保護、パフォーマンスの観点から、11の人気のあるFLフレームワークを評価し比較する。
論文 参考訳(メタデータ) (2022-07-21T05:03:04Z) - Federated Learning: Applications, Challenges and Future Scopes [1.3190581566723918]
フェデレーション・ラーニング(Federated Learning, FL)とは、複数のクライアントが機械学習の問題を解決するために、中心的なアグリゲータが協調するシステムである。
FLは無線通信、サービスレコメンデーション、インテリジェント医療診断システム、医療に応用されている。
論文 参考訳(メタデータ) (2022-05-18T10:47:09Z) - Federated Learning from Only Unlabeled Data with
Class-Conditional-Sharing Clients [98.22390453672499]
Supervised Federated Learning (FL)は、複数のクライアントがラベル付きデータを共有せずにトレーニングされたモデルを共有することを可能にする。
本研究では,教師なし学習(FedUL)のフェデレーションを提案し,各クライアントのラベル付きデータにラベル付きデータを変換する。
論文 参考訳(メタデータ) (2022-04-07T09:12:00Z) - Silent Bugs in Deep Learning Frameworks: An Empirical Study of Keras and
TensorFlow [13.260758930014154]
ディープラーニング(DL)フレームワークは今や広く使われており、複雑なモデルの作成を単純化し、DLの専門家でない人たちにも様々なアプリケーションとの統合が可能である。
本稿では,無声バグと呼ばれるバグのサブカテゴリを扱い,誤った動作を導くが,システムクラッシュやハングを発生させることなく,エラーメッセージをユーザに提示する。
本稿では,Kerasとサイレントバグに関する最初の実証的研究とそのユーザプログラムへの影響について述べる。
論文 参考訳(メタデータ) (2021-12-26T04:18:57Z) - A Systematic Literature Review on Federated Learning: From A Model
Quality Perspective [10.725466627592732]
フェデレートラーニング(FL)は、データをローカルに残してグローバルモデルを共同でトレーニングすることができる。
本稿では,FLモデルの品質向上へのアプローチを体系的に検討し,客観的に分析する。
論文 参考訳(メタデータ) (2020-12-01T05:48:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。