論文の概要: An Empirical Study of Bugs in Open-Source Federated Learning Framework
- arxiv url: http://arxiv.org/abs/2308.05014v1
- Date: Wed, 9 Aug 2023 15:14:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-10 13:14:58.965077
- Title: An Empirical Study of Bugs in Open-Source Federated Learning Framework
- Title(参考訳): オープンソースフェデレーション学習フレームワークにおけるバグの実証的研究
- Authors: Weijie Shao and Yuyang Gao and Fu Song and Sen Chen and Lingling Fan
- Abstract要約: Federated Learning(FL)は、ユーザのプライベートデータを保護するための分散機械学習ソリューションである。
本稿では,1,112個のFLフレームワークのバグに関する実証的研究を行い,その特性について検討する。
本研究の結果から,9つの知見を提示し,その意義について考察し,FLフレームワーク開発者やセキュリティ研究者に対して,FLフレームワークに関するいくつかの提案を行った。
- 参考スコア(独自算出の注目度): 10.909302530454205
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL), as a decentralized machine learning solution to the
protection of users' private data, has become an important learning paradigm in
recent years, especially since the enforcement of stricter laws and regulations
in most countries. Therefore, a variety of FL frameworks are released to
facilitate the development and application of federated learning. Despite the
considerable amount of research on the security and privacy of FL models and
systems, the security issues in FL frameworks have not been systematically
studied yet. In this paper, we conduct the first empirical study on 1,112 FL
framework bugs to investigate their characteristics. These bugs are manually
collected, classified, and labeled from 12 open-source FL frameworks on GitHub.
In detail, we construct taxonomies of 15 symptoms, 12 root causes, and 20 fix
patterns of these bugs and investigate their correlations and distributions on
23 logical components and two main application scenarios. From the results of
our study, we present nine findings, discuss their implications, and propound
several suggestions to FL framework developers and security researchers on the
FL frameworks.
- Abstract(参考訳): ユーザのプライベートデータを保護するための分散機械学習ソリューションであるフェデレートラーニング(FL)は,近年,特に多くの国で厳格な法律や規則が施行されて以降,重要な学習パラダイムとなっている。
そのため、フェデレート学習の開発と適用を容易にするために、さまざまなFLフレームワークがリリースされている。
FLモデルとシステムのセキュリティとプライバシに関するかなりの研究にもかかわらず、FLフレームワークのセキュリティ問題はまだ体系的に研究されていない。
本稿では,1,112個のflフレームワークのバグに関する最初の実証研究を行い,その特性について検討する。
これらのバグは、github上の12のオープンソースflフレームワークから手動で収集、分類、ラベル付けされる。
具体的には,15の症状,12の根本原因,20のバグの修正パターンの分類法を構築し,23の論理コンポーネントと2つの主なアプリケーションシナリオの相関と分布を調査した。
本研究の結果から,9つの知見を提示し,その意義について考察し,FLフレームワークの開発者やセキュリティ研究者に対していくつかの提案を行った。
関連論文リスト
- Can We Theoretically Quantify the Impacts of Local Updates on the Generalization Performance of Federated Learning? [50.03434441234569]
フェデレートラーニング(FL)は、直接データ共有を必要とせず、さまざまなサイトで機械学習モデルをトレーニングする効果により、大きな人気を集めている。
局所的な更新を伴うFLは通信効率のよい分散学習フレームワークであることが様々なアルゴリズムによって示されているが、局所的な更新によるFLの一般化性能は比較的低い。
論文 参考訳(メタデータ) (2024-09-05T19:00:18Z) - BLAZE: Cross-Language and Cross-Project Bug Localization via Dynamic Chunking and Hard Example Learning [1.9854146581797698]
BLAZEは動的チャンキングとハードサンプル学習を採用するアプローチである。
プロジェクト横断と言語横断のバグローカライゼーションを強化するために、難しいバグケースを使用してGPTベースのモデルを微調整する。
BLAZEは、トップ1の精度で120%、平均平均精度(MAP)で144%、平均相互ランク(MRR)で100%上昇する。
論文 参考訳(メタデータ) (2024-07-24T20:44:36Z) - The Fact Selection Problem in LLM-Based Program Repair [3.7005619077967133]
コードコンテキストのような単純な構文的な詳細から、以前はPythonプロジェクトのコンテキストで探索されていなかった意味情報まで、それぞれの事実が有益であることを示す。
重要なことは、プログラム修復プロンプトの有効性は、使用済み事実の数よりも非単調であることが判明した。
我々は、特定のバグに固有の事実を抽出し、プロンプトに含める基本統計モデルManipleを開発した。
論文 参考訳(メタデータ) (2024-04-08T13:41:32Z) - A Survey on Efficient Federated Learning Methods for Foundation Model Training [62.473245910234304]
フェデレーテッド・ラーニング(FL)は、多数のクライアントにわたるプライバシー保護協調トレーニングを促進するための確立した技術となっている。
Foundation Models (FM)の後、多くのディープラーニングアプリケーションでは現実が異なる。
FLアプリケーションに対するパラメータ効率細調整(PEFT)の利点と欠点について論じる。
論文 参考訳(メタデータ) (2024-01-09T10:22:23Z) - Deep Equilibrium Models Meet Federated Learning [71.57324258813675]
本研究では,従来の深層学習ネットワークの代わりにDeep Equilibrium(DEQ)モデルを用いて,フェデレートラーニング(FL)問題について検討する。
我々は、DECモデルをフェデレート学習フレームワークに組み込むことで、FLのいくつかのオープンな問題に自然に対処できると主張している。
我々の知る限りでは、この研究は、DECモデルとフェデレーションラーニングの関連性を確立する最初のものである。
論文 参考訳(メタデータ) (2023-05-29T22:51:40Z) - FL Games: A Federated Learning Framework for Distribution Shifts [71.98708418753786]
フェデレートラーニングは、サーバのオーケストレーションの下で、クライアント間で分散されたデータの予測モデルをトレーニングすることを目的としている。
本稿では,クライアント間で不変な因果的特徴を学習するフェデレーション学習のためのゲーム理論フレームワークFL GAMESを提案する。
論文 参考訳(メタデータ) (2022-10-31T22:59:03Z) - UniFed: All-In-One Federated Learning Platform to Unify Open-Source
Frameworks [53.20176108643942]
オープンソースフェデレートラーニング(FL)フレームワークを標準化する最初の統一プラットフォームであるUniFedを紹介します。
UniFedは、分散実験とデプロイメントのためのエンドツーエンドワークフローを合理化し、11の人気のあるオープンソースFLフレームワークを含んでいる。
機能、プライバシ保護、パフォーマンスの観点から、11の人気のあるFLフレームワークを評価し比較する。
論文 参考訳(メタデータ) (2022-07-21T05:03:04Z) - Federated Learning: Applications, Challenges and Future Scopes [1.3190581566723918]
フェデレーション・ラーニング(Federated Learning, FL)とは、複数のクライアントが機械学習の問題を解決するために、中心的なアグリゲータが協調するシステムである。
FLは無線通信、サービスレコメンデーション、インテリジェント医療診断システム、医療に応用されている。
論文 参考訳(メタデータ) (2022-05-18T10:47:09Z) - Federated Learning from Only Unlabeled Data with
Class-Conditional-Sharing Clients [98.22390453672499]
Supervised Federated Learning (FL)は、複数のクライアントがラベル付きデータを共有せずにトレーニングされたモデルを共有することを可能にする。
本研究では,教師なし学習(FedUL)のフェデレーションを提案し,各クライアントのラベル付きデータにラベル付きデータを変換する。
論文 参考訳(メタデータ) (2022-04-07T09:12:00Z) - Silent Bugs in Deep Learning Frameworks: An Empirical Study of Keras and
TensorFlow [13.260758930014154]
ディープラーニング(DL)フレームワークは今や広く使われており、複雑なモデルの作成を単純化し、DLの専門家でない人たちにも様々なアプリケーションとの統合が可能である。
本稿では,無声バグと呼ばれるバグのサブカテゴリを扱い,誤った動作を導くが,システムクラッシュやハングを発生させることなく,エラーメッセージをユーザに提示する。
本稿では,Kerasとサイレントバグに関する最初の実証的研究とそのユーザプログラムへの影響について述べる。
論文 参考訳(メタデータ) (2021-12-26T04:18:57Z) - A Systematic Literature Review on Federated Learning: From A Model
Quality Perspective [10.725466627592732]
フェデレートラーニング(FL)は、データをローカルに残してグローバルモデルを共同でトレーニングすることができる。
本稿では,FLモデルの品質向上へのアプローチを体系的に検討し,客観的に分析する。
論文 参考訳(メタデータ) (2020-12-01T05:48:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。