論文の概要: Enabling SQL-based Training Data Debugging for Federated Learning
- arxiv url: http://arxiv.org/abs/2108.11884v1
- Date: Thu, 26 Aug 2021 16:20:56 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-27 16:53:30.126873
- Title: Enabling SQL-based Training Data Debugging for Federated Learning
- Title(参考訳): フェデレーションラーニングのためのSQLベースのトレーニングデータデバッグの実現
- Authors: Yejia Liu, Weiyuan Wu, Lampros Flokas, Jiannan Wang, Eugene Wu
- Abstract要約: 我々は,最先端のArtsqlベースのトレーニングデータデバッグフレームワークであるRainを,当社のフェデレーション学習環境に拡張するFedRainを提案する。
これらの制限を克服するため、我々はセキュリティプロトコルを再設計し、フェデレートラーニングに適した新しいsqlベースのトレーニングデータデバッグフレームワークであるFrogを提案する。
我々の理論分析によると、FrogはFedRainよりも安全で、正確で、効率的である。
- 参考スコア(独自算出の注目度): 24.716084718496365
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: How can we debug a logistical regression model in a federated learning
setting when seeing the model behave unexpectedly (e.g., the model rejects all
high-income customers' loan applications)? The SQL-based training data
debugging framework has proved effective to fix this kind of issue in a
non-federated learning setting. Given an unexpected query result over model
predictions, this framework automatically removes the label errors from
training data such that the unexpected behavior disappears in the retrained
model. In this paper, we enable this powerful framework for federated learning.
The key challenge is how to develop a security protocol for federated debugging
which is proved to be secure, efficient, and accurate. Achieving this goal
requires us to investigate how to seamlessly integrate the techniques from
multiple fields (Databases, Machine Learning, and Cybersecurity). We first
propose FedRain, which extends Rain, the state-of-the-art SQL-based training
data debugging framework, to our federated learning setting. We address several
technical challenges to make FedRain work and analyze its security guarantee
and time complexity. The analysis results show that FedRain falls short in
terms of both efficiency and security. To overcome these limitations, we
redesign our security protocol and propose Frog, a novel SQL-based training
data debugging framework tailored for federated learning. Our theoretical
analysis shows that Frog is more secure, more accurate, and more efficient than
FedRain. We conduct extensive experiments using several real-world datasets and
a case study. The experimental results are consistent with our theoretical
analysis and validate the effectiveness of Frog in practice.
- Abstract(参考訳): 予期せぬ振る舞いを見るとき、フェデレートされた学習環境でロジスティック回帰モデルをデバッグするにはどうすればよいか(例えば、モデルは高収入顧客のローンアプリケーションを全て拒否する)。
sqlベースのトレーニングデータデバッグフレームワークは、非フェデレーション学習環境でこのような問題を修正するのに効果的であることが証明された。
モデル予測よりも予期せぬクエリ結果が与えられると、このフレームワークはトレーニングデータからラベルエラーを自動的に取り除き、トレーニングされたモデルで予期せぬ振る舞いが消える。
本稿では,この連帯学習の強力な枠組みを実現する。
重要な課題は、セキュアで効率的で正確なフェデレーションのためのセキュリティプロトコルを開発する方法である。
この目標を達成するためには、複数の分野(データベース、機械学習、サイバーセキュリティ)の技術をシームレスに統合する方法を検討する必要があります。
まず,最先端sqlベースのトレーニングデータデバッグフレームワークであるrainを,フェデレーション学習環境に拡張したfedrainを提案する。
我々は、FedRainを機能させ、セキュリティ保証と時間の複雑さを分析するためのいくつかの技術的課題に対処する。
分析の結果,fedrainは効率とセキュリティの両面で不足していることがわかった。
これらの制限を克服するため、我々はセキュリティプロトコルを再設計し、フェデレートされた学習に適した新しいSQLベースのトレーニングデータデバッグフレームワークであるFrogを提案する。
理論分析の結果、カエルはフェドラインよりも安全で正確で効率的であることが判明した。
いくつかの実世界のデータセットとケーススタディを用いて広範な実験を行う。
実験結果は理論解析と一致し,実際にカエルの有効性を検証する。
関連論文リスト
- FedRFQ: Prototype-Based Federated Learning with Reduced Redundancy,
Minimal Failure, and Enhanced Quality [41.88338945821504]
FedRFQはプロトタイプベースのフェデレーション学習アプローチであり、冗長性を低減し、失敗を最小限に抑え、下位品質を改善することを目的としている。
本稿では,BFT (Byzantine Fault Tolerance) 検出可能な集約アルゴリズムであるBFT-detectを導入する。
論文 参考訳(メタデータ) (2024-01-15T09:50:27Z) - Combating Exacerbated Heterogeneity for Robust Models in Federated
Learning [91.88122934924435]
対人訓練と連合学習の組み合わせは、望ましくない頑丈さの劣化につながる可能性がある。
我々は、Slack Federated Adversarial Training (SFAT)と呼ばれる新しいフレームワークを提案する。
各種ベンチマークおよび実世界のデータセットに対するSFATの合理性と有効性を検証する。
論文 参考訳(メタデータ) (2023-03-01T06:16:15Z) - Better Generative Replay for Continual Federated Learning [20.57194599280318]
フェデレートラーニング(Federated Learning)とは、分散クライアントからコミュニケーションを通じて学習する集中型サーバを実現する技術である。
本稿では,クライアントが新たなタスクを段階的に学習し,履歴データを格納できない連続的フェデレーション学習の問題を紹介する。
我々は,モデル統合と整合性強化という,シンプルだが効果的な2つの解を用いたFedCILモデルを提案する。
論文 参考訳(メタデータ) (2023-02-25T06:26:56Z) - FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z) - FIRE: A Failure-Adaptive Reinforcement Learning Framework for Edge Computing Migrations [52.85536740465277]
FIREは、エッジコンピューティングのディジタルツイン環境でRLポリシーをトレーニングすることで、まれなイベントに適応するフレームワークである。
ImREは重要なサンプリングに基づくQ-ラーニングアルゴリズムであり、希少事象をその値関数への影響に比例してサンプリングする。
FIREは故障時にバニラRLやグリーディベースラインと比較してコストを削減できることを示す。
論文 参考訳(メタデータ) (2022-09-28T19:49:39Z) - Acceleration of Federated Learning with Alleviated Forgetting in Local
Training [61.231021417674235]
フェデレートラーニング(FL)は、プライバシを保護しながら機械学習モデルの分散最適化を可能にする。
我々は,FedRegを提案する。FedRegは,局所的な訓練段階において,知識を忘れることなくFLを加速するアルゴリズムである。
我々の実験は、FedRegはFLの収束率を著しく改善するだけでなく、特にニューラルネットワークアーキテクチャが深い場合にも改善することを示した。
論文 参考訳(メタデータ) (2022-03-05T02:31:32Z) - Aggregation Delayed Federated Learning [20.973999078271483]
フェデレーション学習(Federated Learning)は、複数のデータ所有者(クライアント)が、自身のデバイスにデータを保持しながら、ひとつのマシンラーニングモデルを協調的にトレーニングする分散機械学習パラダイムである。
非IIDデータ上では、FedAvgのような標準フェデレーションアルゴリズムによる性能低下が報告されている。
非IIDデータを扱うための多くの既存の作業は、FedAvgと同じ集約フレームワークを採用し、サーバ側またはクライアントでモデル更新を改善することに重点を置いている。
本研究では, 集約を遅らせる再分配ラウンドを導入することで, この課題に取り組み, 複数タスクの実験を行い, 提案したフレームワークが非IIDの性能を大幅に向上することを示す。
論文 参考訳(メタデータ) (2021-08-17T04:06:10Z) - RoFL: Attestable Robustness for Secure Federated Learning [59.63865074749391]
フェデレートラーニング(Federated Learning)により、多数のクライアントが、プライベートデータを共有することなく、ジョイントモデルをトレーニングできる。
クライアントのアップデートの機密性を保証するため、フェデレートラーニングシステムはセキュアなアグリゲーションを採用している。
悪意のあるクライアントに対する堅牢性を向上させるセキュアなフェデレート学習システムであるRoFLを提案する。
論文 参考訳(メタデータ) (2021-07-07T15:42:49Z) - CRFL: Certifiably Robust Federated Learning against Backdoor Attacks [59.61565692464579]
本稿では,第1の汎用フレームワークであるCertifiably Robust Federated Learning (CRFL) を用いて,バックドアに対する堅牢なFLモデルをトレーニングする。
提案手法は, モデルパラメータのクリッピングと平滑化を利用して大域的モデル平滑化を制御する。
論文 参考訳(メタデータ) (2021-06-15T16:50:54Z) - CLeaR: An Adaptive Continual Learning Framework for Regression Tasks [2.043835539102076]
破滅的な忘れは、訓練されたニューラルネットワークモデルが、新しいタスクで再訓練されるときに、学習済みのタスクを徐々に忘れることを意味します。
多くの連続学習アルゴリズムは、分類タスクの漸進学習に非常に成功している。
本稿では,目標を予測し,継続学習によって自分自身を更新できる新しい方法論フレームワークを提案する。
論文 参考訳(メタデータ) (2021-01-04T12:41:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。