論文の概要: Knowledge-Injected Federated Learning
- arxiv url: http://arxiv.org/abs/2208.07530v1
- Date: Tue, 16 Aug 2022 04:23:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-17 12:05:41.443865
- Title: Knowledge-Injected Federated Learning
- Title(参考訳): 知識インジェクション型連合学習
- Authors: Zhenan Fan, Zirui Zhou, Jian Pei, Michael P. Friedlander, Jiajie Hu,
Chengliang Li, Yong Zhang
- Abstract要約: フェデレートラーニング(Federated Learning)は、分散データセットからモデルをトレーニングするための新興技術である。
多くのアプリケーションにおいて、フェデレート学習システムに参加しているデータ所有者は、データだけでなく、一連のドメイン知識も保持する。
参加者のドメイン知識を注入できる連合学習フレームワークを提案する。
- 参考スコア(独自算出の注目度): 44.89926234630289
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning is an emerging technique for training models from
decentralized data sets. In many applications, data owners participating in the
federated learning system hold not only the data but also a set of domain
knowledge. Such knowledge includes human know-how and craftsmanship that can be
extremely helpful to the federated learning task. In this work, we propose a
federated learning framework that allows the injection of participants' domain
knowledge, where the key idea is to refine the global model with knowledge
locally. The scenario we consider is motivated by a real industry-level
application, and we demonstrate the effectiveness of our approach to this
application.
- Abstract(参考訳): フェデレーション学習は、分散データセットからモデルをトレーニングするための新興技術である。
多くのアプリケーションでは、フェデレーション学習システムに参加しているデータオーナーは、データだけでなく、一連のドメイン知識も保持する。
そのような知識には人間のノウハウと職人技が含まれており、連帯学習タスクに非常に役立つ。
そこで本研究では,参加者のドメイン知識の注入を可能にするフェデレーション学習フレームワークを提案する。
私たちが考えるシナリオは、実際の業界レベルのアプリケーションによって動機づけられ、このアプリケーションに対する我々のアプローチの有効性を実証します。
関連論文リスト
- Large Language Models are Limited in Out-of-Context Knowledge Reasoning [65.72847298578071]
大規模言語モデル (LLMs) は、文脈内推論の実行において広範な知識と強力な能力を持っている。
本稿では、複数の知識を組み合わせて新しい知識を推論する、文脈外知識推論(OCKR)という、文脈外推論の重要な側面に焦点を当てる。
論文 参考訳(メタデータ) (2024-06-11T15:58:59Z) - KnFu: Effective Knowledge Fusion [5.305607095162403]
フェデレートラーニング(FL)は、従来の集中型ラーニングのアプローチに代わる顕著な代替手段として登場した。
本稿では,各クライアントに対してセマンティックな隣人の効果的な知識を融合させるためのみに,局所モデルの知識を評価するEffective Knowledge Fusion(KnFu)アルゴリズムを提案する。
この研究の重要な結論は、大規模でヘテロジニアスなローカルデータセットを持つシナリオでは、知識融合ベースのソリューションよりも局所的なトレーニングが望ましい、ということである。
論文 参考訳(メタデータ) (2024-03-18T15:49:48Z) - Private Knowledge Sharing in Distributed Learning: A Survey [50.51431815732716]
人工知能の台頭は多くの産業に革命をもたらし、社会の働き方を変えた。
異なるエンティティが分散または所有する学習プロセスにおいて、情報を活用することが不可欠である。
現代のデータ駆動サービスは、分散知識エンティティを結果に統合するために開発されています。
論文 参考訳(メタデータ) (2024-02-08T07:18:23Z) - Exploring Machine Learning Models for Federated Learning: A Review of
Approaches, Performance, and Limitations [1.1060425537315088]
フェデレートラーニング(Federated Learning)は、個人のデータのプライバシを保護するために強化された分散学習フレームワークである。
危機時には、リアルタイムな意思決定が重要である場合、フェデレートされた学習は、機密データを共有せずに複数のエンティティをまとめて機能させることができる。
本稿では,ここ数年のプライバシ保護機械学習に関する文献を体系的にレビューする。
論文 参考訳(メタデータ) (2023-11-17T19:23:21Z) - Federated Learning: Organizational Opportunities, Challenges, and
Adoption Strategies [39.58317527488534]
フェデレートラーニングにより、分散クライアントは、各トレーニングデータを他の人と共有することなく、モデルを協調的にトレーニングできる。
我々は,情報システム研究者にとって,連合学習は学際的機会の豊富な組織的課題を提示すると主張する。
論文 参考訳(メタデータ) (2023-08-04T09:23:23Z) - UNTER: A Unified Knowledge Interface for Enhancing Pre-trained Language
Models [100.4659557650775]
構造化知識と非構造化知識の両方を活用する統一的な視点を提供するために、統一知識インターフェイスUNTERを提案する。
どちらの形態の知識も注入され、UNTERは一連の知識駆動NLPタスクの継続的な改善を得る。
論文 参考訳(メタデータ) (2023-05-02T17:33:28Z) - Heterogeneous Federated Knowledge Graph Embedding Learning and
Unlearning [14.063276595895049]
Federated Learning(FL)は、生データを共有せずに分散クライアント間でグローバル機械学習モデルをトレーニングするパラダイムである。
ヘテロジニアスなKG埋め込み学習とアンラーニングのための新しいFLフレームワークであるFedLUを提案する。
我々は,FedLUがリンク予測と知識忘れの両方において優れた結果を得ることを示す。
論文 参考訳(メタデータ) (2023-02-04T02:44:48Z) - Knowledge-augmented Deep Learning and Its Applications: A Survey [60.221292040710885]
知識強化ディープラーニング(KADL)は、ドメイン知識を特定し、それをデータ効率、一般化可能、解釈可能なディープラーニングのためのディープモデルに統合することを目的としている。
本調査は,既存の研究成果を補足し,知識強化深層学習の一般分野における鳥眼研究の展望を提供する。
論文 参考訳(メタデータ) (2022-11-30T03:44:15Z) - Knowledge-Aware Federated Active Learning with Non-IID Data [75.98707107158175]
本稿では,アノテーション予算に制限のあるグローバルモデルを効率的に学習するための,連合型アクティブラーニングパラダイムを提案する。
フェデレートされたアクティブラーニングが直面する主な課題は、サーバ上のグローバルモデルのアクティブサンプリング目標と、ローカルクライアントのアクティブサンプリング目標とのミスマッチである。
本稿では,KSAS (Knowledge-Aware Federated Active Learning) とKCFU (Knowledge-Compensatory Federated Update) を組み合わせた,知識対応型アクティブ・ラーニング(KAFAL)を提案する。
論文 参考訳(メタデータ) (2022-11-24T13:08:43Z) - Global Knowledge Distillation in Federated Learning [3.7311680121118345]
本稿では,従来のグローバルモデルから知識を学習し,局所バイアス学習問題に対処する,新たなグローバル知識蒸留法であるFedGKDを提案する。
提案手法の有効性を示すため,各種CVデータセット(CIFAR-10/100)と設定(非i.dデータ)について広範な実験を行った。
論文 参考訳(メタデータ) (2021-06-30T18:14:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。