論文の概要: Knowledge Augmentation in Federation: Rethinking What Collaborative Learning Can Bring Back to Decentralized Data
- arxiv url: http://arxiv.org/abs/2503.03140v2
- Date: Fri, 07 Mar 2025 02:57:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-10 12:25:50.828078
- Title: Knowledge Augmentation in Federation: Rethinking What Collaborative Learning Can Bring Back to Decentralized Data
- Title(参考訳): フェデレーションにおける知識向上 - 分散データにコラボレーティブな学習がもたらすものを再考する
- Authors: Wentai Wu, Ligang He, Saiqin Long, Ahmed M. Abdelmoniem, Yingliang Wu, Rui Mao,
- Abstract要約: 連邦における知識強化(KAF)と呼ばれる知識中心のパラダイムを提案する。
提案するシステムアーキテクチャを提案し,プロトタイプ最適化の目的を定式化し,KAFに適した方法論を用いた新たな研究をレビューする。
コミュニティからもっと注目に値するいくつかの課題とオープンな質問を強調します。
- 参考スコア(独自算出の注目度): 11.521866946305986
- License:
- Abstract: Data, as an observable form of knowledge, has become one of the most important factors of production for the development of Artificial Intelligence (AI). Meanwhile, increasing legislation and regulations on private and proprietary information results in scattered data sources also known as the "data islands". Although some collaborative learning paradigms such as Federated Learning (FL) can enable privacy-preserving training over decentralized data, they have inherent deficiencies in fairness, costs and reproducibility because of being learning-centric, which greatly limits the way how participants cooperate with each other. In light of this, we present a knowledge-centric paradigm termed Knowledge Augmentation in Federation (KAF), with focus on how to enhance local knowledge through collaborative effort. We provide the suggested system architecture, formulate the prototypical optimization objective, and review emerging studies that employ methodologies suitable for KAF. On our roadmap, with a three-way categorization we describe the methods for knowledge expansion, knowledge filtering, and label and feature space correction in the federation. Further, we highlight several challenges and open questions that deserve more attention from the community. With our investigation, we intend to offer new insights for what collaborative learning can bring back to decentralized data.
- Abstract(参考訳): データは、観測可能な知識の形式として、人工知能(AI)の開発において、生産の最も重要な要素の1つとなっている。
一方、私的および独占的な情報に関する法律や規制の増大は、散在するデータソースを「データ・アイランド」と呼ぶ。
フェデレートラーニング(FL)のような協調学習パラダイムは、分散データよりもプライバシー保護トレーニングを可能にするが、学習中心であることから、公正性、コスト、再現性に固有の欠陥があり、参加者同士の協力の仕方を大幅に制限する。
これを踏まえ、我々は、コラボレーティブな取り組みを通じて、地域知識を強化する方法に焦点を当てた知識中心のパラダイム「Knowledge Augmentation in Federation(KAF)」を提示する。
提案するシステムアーキテクチャを提案し,プロトタイプ最適化の目的を定式化し,KAFに適した方法論を用いた新たな研究をレビューする。
ロードマップでは,知識拡張,知識フィルタリング,ラベルと特徴空間の補正手法を3方向分類で記述する。
さらに、コミュニティからもっと注目に値するいくつかの課題とオープンな質問を強調します。
私たちの調査では、コラボレーティブラーニングが分散データに何をもたらすのか、新たな洞察を提供するつもりです。
関連論文リスト
- Ten Challenging Problems in Federated Foundation Models [55.343738234307544]
フェデレーション・ファンデーション・モデル(Federated Foundation Models、FedFM)は、フェデレーション・モデルの一般的な能力とフェデレーション・ラーニングのプライバシー保護能力を融合させる分散学習パラダイムである。
本稿では,FedFMに固有の10の課題について,基礎理論,プライベートデータの利用,継続学習,非学習,非IIDおよびグラフデータ,双方向知識伝達,インセンティブ機構設計,ゲーム機構設計,モデル透かし,効率を包括的に要約する。
論文 参考訳(メタデータ) (2025-02-14T04:01:15Z) - Promise and Peril of Collaborative Code Generation Models: Balancing Effectiveness and Memorization [13.949319911378826]
本研究では,コードの次点予測における協調学習手法の有効性に影響を及ぼす要因について検討する。
コードデータセットのサイズと多様性が、協調的に訓練されたコードモデルの成功に影響を及ぼす重要な要因であることを示す。
この結果から,トレーニングデータに見当たらない場合でも,推論中のデータ漏洩の持続的リスクが浮き彫りになった。
論文 参考訳(メタデータ) (2024-09-18T14:30:48Z) - KnFu: Effective Knowledge Fusion [5.305607095162403]
フェデレートラーニング(FL)は、従来の集中型ラーニングのアプローチに代わる顕著な代替手段として登場した。
本稿では,各クライアントに対してセマンティックな隣人の効果的な知識を融合させるためのみに,局所モデルの知識を評価するEffective Knowledge Fusion(KnFu)アルゴリズムを提案する。
この研究の重要な結論は、大規模でヘテロジニアスなローカルデータセットを持つシナリオでは、知識融合ベースのソリューションよりも局所的なトレーニングが望ましい、ということである。
論文 参考訳(メタデータ) (2024-03-18T15:49:48Z) - Private Knowledge Sharing in Distributed Learning: A Survey [50.51431815732716]
人工知能の台頭は多くの産業に革命をもたらし、社会の働き方を変えた。
異なるエンティティが分散または所有する学習プロセスにおいて、情報を活用することが不可欠である。
現代のデータ駆動サービスは、分散知識エンティティを結果に統合するために開発されています。
論文 参考訳(メタデータ) (2024-02-08T07:18:23Z) - Personalized Federated Learning with Attention-based Client Selection [57.71009302168411]
我々は,意図に基づくクライアント選択機構を備えた新しいPFLアルゴリズムであるFedACSを提案する。
FedACSは、類似したデータ分散を持つクライアント間のコラボレーションを強化するためのアテンションメカニズムを統合している。
CIFAR10とFMNISTの実験は、FedACSの優位性を検証する。
論文 参考訳(メタデータ) (2023-12-23T03:31:46Z) - Exploring Federated Unlearning: Analysis, Comparison, and Insights [101.64910079905566]
フェデレーション・アンラーニングは、フェデレーション・システムで訓練されたモデルからデータを選択的に除去することを可能にする。
本稿では,既存のフェデレーション・アンラーニング手法について検討し,アルゴリズムの効率,モデル精度への影響,プライバシ保護の有効性について検討する。
フェデレートされたアンラーニング手法を評価するための統一ベンチマークであるOpenFederatedUnlearningフレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-30T01:34:33Z) - When Decentralized Optimization Meets Federated Learning [41.58479981773202]
フェデレーション学習は、分散データから知識を抽出するための新しい学習パラダイムである。
既存のフェデレートされた学習アプローチのほとんどは、単一ポイントの障害に対して脆弱な集中的な設定に集中しています。
この問題に対処する別の戦略は、分散化された通信トポロジである。
論文 参考訳(メタデータ) (2023-06-05T03:51:14Z) - Selective Knowledge Sharing for Privacy-Preserving Federated
Distillation without A Good Teacher [52.2926020848095]
フェデレーション学習は、ホワイトボックス攻撃に脆弱で、異種クライアントへの適応に苦慮している。
本稿では,選択的FD(Selective-FD)と呼ばれるFDのための選択的知識共有機構を提案する。
論文 参考訳(メタデータ) (2023-04-04T12:04:19Z) - Combating Exacerbated Heterogeneity for Robust Models in Federated
Learning [91.88122934924435]
対人訓練と連合学習の組み合わせは、望ましくない頑丈さの劣化につながる可能性がある。
我々は、Slack Federated Adversarial Training (SFAT)と呼ばれる新しいフレームワークを提案する。
各種ベンチマークおよび実世界のデータセットに対するSFATの合理性と有効性を検証する。
論文 参考訳(メタデータ) (2023-03-01T06:16:15Z) - Heterogeneous Federated Knowledge Graph Embedding Learning and
Unlearning [14.063276595895049]
Federated Learning(FL)は、生データを共有せずに分散クライアント間でグローバル機械学習モデルをトレーニングするパラダイムである。
ヘテロジニアスなKG埋め込み学習とアンラーニングのための新しいFLフレームワークであるFedLUを提案する。
我々は,FedLUがリンク予測と知識忘れの両方において優れた結果を得ることを示す。
論文 参考訳(メタデータ) (2023-02-04T02:44:48Z) - Knowledge-Injected Federated Learning [44.89926234630289]
フェデレートラーニング(Federated Learning)は、分散データセットからモデルをトレーニングするための新興技術である。
多くのアプリケーションにおいて、フェデレート学習システムに参加しているデータ所有者は、データだけでなく、一連のドメイン知識も保持する。
参加者のドメイン知識を注入できる連合学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-08-16T04:23:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。