論文の概要: Online Decentralized Federated Multi-task Learning With Trustworthiness in Cyber-Physical Systems
- arxiv url: http://arxiv.org/abs/2509.00992v1
- Date: Sun, 31 Aug 2025 20:59:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 15:17:03.493095
- Title: Online Decentralized Federated Multi-task Learning With Trustworthiness in Cyber-Physical Systems
- Title(参考訳): サイバー物理システムにおける信頼度を考慮したオンライン分散多タスク学習
- Authors: Olusola Odeyomi, Sofiat Olaosebikan, Ajibuwa Opeyemi, Oluwadoyinsola Ige,
- Abstract要約: 連邦学習の現実的な応用におけるより深刻な問題は、ビザンツのクライアントの存在である。
ロボット工学における最近の研究は、システムのサイバー物理特性を利用してクライアントの行動を予測できることを示唆している。
我々は、ビザンティンのクライアント数が正直なクライアント数を支配している場合に、モデルパーソナライズとレジリエンスを提供するために、オンライン分散化されたマルチタスク学習アルゴリズムを開発した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Multi-task learning is an effective way to address the challenge of model personalization caused by high data heterogeneity in federated learning. However, extending multi-task learning to the online decentralized federated learning setting is yet to be explored. The online decentralized federated learning setting considers many real-world applications of federated learning, such as autonomous systems, where clients communicate peer-to-peer and the data distribution of each client is time-varying. A more serious problem in real-world applications of federated learning is the presence of Byzantine clients. Byzantine-resilient approaches used in federated learning work only when the number of Byzantine clients is less than one-half the total number of clients. Yet, it is difficult to put a limit on the number of Byzantine clients within a system in reality. However, recent work in robotics shows that it is possible to exploit cyber-physical properties of a system to predict clients' behavior and assign a trust probability to received signals. This can help to achieve resiliency in the presence of a dominating number of Byzantine clients. Therefore, in this paper, we develop an online decentralized federated multi-task learning algorithm to provide model personalization and resiliency when the number of Byzantine clients dominates the number of honest clients. Our proposed algorithm leverages cyber-physical properties, such as the received signal strength in wireless systems or side information, to assign a trust probability to local models received from neighbors in each iteration. Our simulation results show that the proposed algorithm performs close to a Byzantine-free setting.
- Abstract(参考訳): マルチタスク学習は、フェデレート学習における高データ不均一性に起因するモデルパーソナライゼーションの課題に対処する効果的な方法である。
しかし、マルチタスク学習をオンライン分散化されたフェデレーション学習環境に拡張することはまだ検討されていない。
オンライン分散フェデレーション学習設定では、クライアントがピアツーピアを通信し、各クライアントのデータ分散が時間的に変化する自律システムなど、多くの現実的なフェデレーション学習の応用が検討されている。
連邦学習の現実的な応用におけるより深刻な問題は、ビザンツのクライアントの存在である。
Byzantine-Resilient approach used in Federated Learning work only when the number of Byzantine client is less than 1/4 of the total number of client。
しかし、実際にシステム内のビザンツの顧客数を制限することは困難である。
しかし,ロボット工学における最近の研究は,システムのサイバー物理特性を利用してクライアントの行動を予測し,受信した信号に信頼確率を割り当てることが可能であることを示している。
これにより、ビザンツのクライアントが圧倒的に多いため、レジリエンスを達成するのに役立ちます。
そこで本稿では,ビザンツのクライアント数が正直なクライアント数を支配している場合に,モデルパーソナライズとレジリエンスを提供するために,オンライン分散型マルチタスク学習アルゴリズムを開発した。
提案アルゴリズムは、無線システムにおける受信信号強度やサイド情報などのサイバー物理特性を利用して、各イテレーションで隣人から受信したローカルモデルに信頼確率を割り当てる。
シミュレーションの結果,提案アルゴリズムはビザンツ自由条件に近い性能を示した。
関連論文リスト
- Byzantine Resilient Federated Multi-Task Representation Learning [1.6114012813668932]
欠陥や悪意のあるエージェントを扱うビザンチン耐性のマルチタスク表現学習フレームワークBR-MTRLを提案する。
このアプローチでは、クライアント固有の最終層を除いて、すべてのクライアントが固定層を共有する、共有ニューラルネットワークモデルによる表現学習を活用しています。
論文 参考訳(メタデータ) (2025-03-24T23:26:28Z) - FedLALR: Client-Specific Adaptive Learning Rates Achieve Linear Speedup
for Non-IID Data [54.81695390763957]
フェデレートラーニング(Federated Learning)は、分散機械学習の手法である。
我々は,AMSGradの異種局所変種であるFedLALRを提案し,各クライアントが学習率を調整する。
クライアントが指定した自動調整型学習率スケジューリングが,クライアント数に対して収束し,線形高速化を実現することを示す。
論文 参考訳(メタデータ) (2023-09-18T12:35:05Z) - FedClassAvg: Local Representation Learning for Personalized Federated
Learning on Heterogeneous Neural Networks [21.613436984547917]
我々は、フェデレーション分類器平均化(FedClassAvg)と呼ばれる、新しいパーソナライズされたフェデレーション学習手法を提案する。
FedClassAvgは、特徴空間上の決定境界に関する合意として重みを集約する。
異質なパーソナライズされたフェデレーション学習タスクにおいて、現在の最先端のアルゴリズムよりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-10-25T08:32:08Z) - Straggler-Resilient Personalized Federated Learning [55.54344312542944]
フェデレーション学習は、プライバシと通信の制限を尊重しながら、クライアントの大規模なネットワークに分散されたサンプルからのトレーニングモデルを可能にする。
これら2つのハードルを同時に処理する理論的なスピードアップを保証する新しいアルゴリズム手法を開発した。
提案手法は,すべてのクライアントのデータを用いてグローバルな共通表現を見つけ,各クライアントに対してパーソナライズされたソリューションにつながるパラメータの集合を学習するために,表現学習理論からのアイデアに依存している。
論文 参考訳(メタデータ) (2022-06-05T01:14:46Z) - Addressing Client Drift in Federated Continual Learning with Adaptive
Optimization [10.303676184878896]
本稿では,NetTailorを連続学習候補として活用することにより,FCL(Federated Continual Learning)を実現するための枠組みを概説する。
適応型フェデレーション最適化は,クライアントドリフトの悪影響を低減し,CIFAR100,MiniImagenet,Deathlonベンチマーク上での有効性を示す。
論文 参考訳(メタデータ) (2022-03-24T20:00:03Z) - Secure Distributed Training at Scale [65.7538150168154]
ピアの存在下でのトレーニングには、ビザンティン寛容な特殊な分散トレーニングアルゴリズムが必要である。
本稿では,コミュニケーション効率を重視したセキュアな(ビザンチン耐性)分散トレーニングのための新しいプロトコルを提案する。
論文 参考訳(メタデータ) (2021-06-21T17:00:42Z) - Exploiting Shared Representations for Personalized Federated Learning [54.65133770989836]
本稿では,クライアント間の共有データ表現と,クライアント毎のユニークなローカルヘッダを学習するための,新しいフェデレーション学習フレームワークとアルゴリズムを提案する。
提案アルゴリズムは, クライアント間の分散計算能力を利用して, 表現の更新毎に低次元の局所パラメータに対して, 多数の局所更新を行う。
この結果は、データ分布間の共有低次元表現を学習することを目的とした、幅広い種類の問題に対するフェデレーション学習以上の関心を持っている。
論文 参考訳(メタデータ) (2021-02-14T05:36:25Z) - Federated Continual Learning with Weighted Inter-client Transfer [79.93004004545736]
我々は,新しい連合型連続学習フレームワークFederated Weighted Inter-client Transfer(FedWeIT)を提案する。
FedWeITは、ネットワークの重みをグローバルなフェデレーションパラメータとスパースなタスク固有のパラメータに分解し、各クライアントは他のクライアントから選択的な知識を受け取る。
我々はFedWeITを既存のフェデレーション学習法や継続学習法に対して検証し、我々のモデルは通信コストを大幅に削減してそれらを著しく上回っている。
論文 参考訳(メタデータ) (2020-03-06T13:33:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。