論文の概要: Federated Learning with New Knowledge: Fundamentals, Advances, and
Futures
- arxiv url: http://arxiv.org/abs/2402.02268v1
- Date: Sat, 3 Feb 2024 21:29:31 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-06 21:03:41.338785
- Title: Federated Learning with New Knowledge: Fundamentals, Advances, and
Futures
- Title(参考訳): 新しい知識による連合学習 : 基礎,進歩,未来
- Authors: Lixu Wang, Yang Zhao, Jiahua Dong, Ating Yin, Qinbin Li, Xiao Wang,
Dusit Niyato, Qi Zhu
- Abstract要約: 本稿では,フェデレートラーニング(FL)における新しい知識の源泉を体系的に定義する。
本研究は,新たな知識の到来時期と形態が定式化過程に及ぼす影響について検討する。
シナリオの設定,効率,セキュリティなど,さまざまな要因を考慮し,FLの今後の方向性を新たな知識で論じる。
- 参考スコア(独自算出の注目度): 69.8830772538421
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Learning (FL) is a privacy-preserving distributed learning approach
that is rapidly developing in an era where privacy protection is increasingly
valued. It is this rapid development trend, along with the continuous emergence
of new demands for FL in the real world, that prompts us to focus on a very
important problem: Federated Learning with New Knowledge. The primary challenge
here is to effectively incorporate various new knowledge into existing FL
systems and evolve these systems to reduce costs, extend their lifespan, and
facilitate sustainable development. In this paper, we systematically define the
main sources of new knowledge in FL, including new features, tasks, models, and
algorithms. For each source, we thoroughly analyze and discuss how to
incorporate new knowledge into existing FL systems and examine the impact of
the form and timing of new knowledge arrival on the incorporation process.
Furthermore, we comprehensively discuss the potential future directions for FL
with new knowledge, considering a variety of factors such as scenario setups,
efficiency, and security. There is also a continuously updating repository for
this topic: https://github.com/conditionWang/FLNK.
- Abstract(参考訳): Federated Learning(FL)は、プライバシ保護がますます重視される時代に急速に発展している、プライバシ保護の分散学習アプローチである。
この急激な開発トレンドは、現実世界におけるFLに対する新たな要求の継続的な出現とともに、非常に重要な問題、すなわち新しい知識によるフェデレートラーニングに焦点を合わせることにつながります。
ここでの最大の課題は、様々な新しい知識を既存のFLシステムに効果的に取り入れ、これらのシステムを進化させ、コストを削減し、寿命を延ばし、持続可能な開発を促進することである。
本稿では,新機能やタスク,モデル,アルゴリズムなど,flにおける新しい知識の主な源を体系的に定義する。
各ソースについて,既存のflシステムに新しい知識を組み込む方法について徹底的に分析・議論し,新しい知識の到着形態とタイミングが導入プロセスに与える影響について検討する。
さらに,シナリオの設定,効率,セキュリティなど,さまざまな要因を考慮して,FLの今後の方向性を新たな知識で包括的に議論する。
また、このトピックのための継続的に更新されたリポジトリがある。
関連論文リスト
- Advances in APPFL: A Comprehensive and Extensible Federated Learning Framework [1.4206132527980742]
Federated Learning(FL)は、データプライバシを保持しながら協調的なモデルトレーニングを可能にする分散機械学習パラダイムである。
本稿では,統合学習のためのフレームワークおよびベンチマークスイートであるAPPFLの開発における最近の進歩について述べる。
本稿では, 通信効率, プライバシー保護, 計算性能, 資源利用など, FLの様々な側面を評価する広範な実験を通じて, APPFLの能力を実証する。
論文 参考訳(メタデータ) (2024-09-17T22:20:26Z) - Federated Learning for 6G: Paradigms, Taxonomy, Recent Advances and
Insights [52.024964564408]
本稿では,プロトコルスタックのすべてのレベルにわたってフェデレートラーニングを実装することの付加価値について検討する。
それは重要なFLアプリケーションを示し、ホットトピックに対処し、将来の研究と開発のための貴重な洞察と明示的なガイダンスを提供します。
我々の結論は、FLと将来の6Gの相乗効果を活用しつつ、FLがワイヤレス産業に革命をもたらす可能性を浮き彫りにすることを目的としています。
論文 参考訳(メタデータ) (2023-12-07T20:39:57Z) - Online Continual Knowledge Learning for Language Models [3.654507524092343]
大規模言語モデル(LLM)は、幅広い世界の知識のリポジトリとして機能し、質問応答やファクトチェックなどのタスクを実行できる。
オンライン連続知識学習(OCKL)は,実時間制約下での世界知識の動的性質を管理することを目的としている。
論文 参考訳(メタデータ) (2023-11-16T07:31:03Z) - A Survey of Federated Unlearning: A Taxonomy, Challenges and Future
Directions [71.16718184611673]
プライバシ保護のためのフェデレートラーニング(FL)の進化により、忘れられる権利を実装する必要性が高まっている。
選択的な忘れ方の実装は、その分散した性質のため、FLでは特に困難である。
Federated Unlearning(FU)は、データプライバシの必要性の増加に対応する戦略的ソリューションとして登場した。
論文 参考訳(メタデータ) (2023-10-30T01:34:33Z) - On Knowledge Editing in Federated Learning: Perspectives, Challenges,
and Future Directions [36.733628606028184]
本稿では,フェデレートラーニングにおける知識編集(強化/削除)の話題について広範な調査を行う。
FLのライフサイクル全体を再評価することにより、FEL(Federated Editable Learning)と呼ばれる統合パラダイムを導入する。
論文 参考訳(メタデータ) (2023-06-02T10:42:47Z) - A Survey of Trustworthy Federated Learning with Perspectives on
Security, Robustness, and Privacy [47.89042524852868]
Federated Learning (FL) は,さまざまな現実のシナリオに対して,有望なソリューションとして注目されている。
しかし、データの分離とプライバシーに関する課題は、FLシステムの信頼性を脅かす。
論文 参考訳(メタデータ) (2023-02-21T12:52:12Z) - Towards Continual Knowledge Learning of Language Models [11.000501711652829]
大規模言語モデル(LM)は、膨大な量のWebコーパスで事前訓練を行う際に、そのパラメータで世界の知識を符号化することが知られている。
実世界のシナリオでは、LMに格納されている世界知識は、世界が変化するにつれて急速に時代遅れになる。
継続知識学習(CKL)と呼ばれる新しい継続学習(CL)問題を定式化する。
論文 参考訳(メタデータ) (2021-10-07T07:00:57Z) - RoFL: Attestable Robustness for Secure Federated Learning [59.63865074749391]
フェデレートラーニング(Federated Learning)により、多数のクライアントが、プライベートデータを共有することなく、ジョイントモデルをトレーニングできる。
クライアントのアップデートの機密性を保証するため、フェデレートラーニングシステムはセキュアなアグリゲーションを採用している。
悪意のあるクライアントに対する堅牢性を向上させるセキュアなフェデレート学習システムであるRoFLを提案する。
論文 参考訳(メタデータ) (2021-07-07T15:42:49Z) - Incremental Knowledge Based Question Answering [52.041815783025186]
人間と同じように学習能力を段階的に拡張できるインクリメンタルKBQA学習フレームワークを提案します。
具体的には、破滅的な忘れ問題を克服するために、マージン希釈損失と協調選択方法からなる。
包括的な実験は、進化する知識ベースに取り組む際にその効果と効率を示す。
論文 参考訳(メタデータ) (2021-01-18T09:03:38Z) - Threats to Federated Learning: A Survey [35.724483191921244]
フェデレーテッド・ラーニング(FL)は、この新しい現実の下で有望なソリューションとして登場した。
既存のFLプロトコルの設計は、敵に悪用される脆弱性を示すことが示されている。
本稿では、FLの概念を簡潔に紹介し、脅威モデルをカバーするユニークな分類法と、FLに対する2つの主要な攻撃について述べる。
論文 参考訳(メタデータ) (2020-03-04T15:30:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。