論文の概要: On Vessel Location Forecasting and the Effect of Federated Learning
- arxiv url: http://arxiv.org/abs/2405.19870v1
- Date: Thu, 30 May 2024 09:23:48 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-31 15:09:01.783079
- Title: On Vessel Location Forecasting and the Effect of Federated Learning
- Title(参考訳): 船舶位置予測とフェデレート学習の効果について
- Authors: Andreas Tritsarolis, Nikos Pelekis, Konstantina Bereta, Dimitris Zissis, Yannis Theodoridis,
- Abstract要約: 船舶位置予測は海洋の認識にとって最も重要な作戦の1つである。
プライバシーの懸念と制限が高まるにつれ、トレーニングデータの断片化がますます進んでいる。
LSTMニューラルネットワークに基づく効率的なVLFソリューションを,NautilusとFedNautilusの2つの変種で提案する。
- 参考スコア(独自算出の注目度): 1.7313121318368607
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The wide spread of Automatic Identification System (AIS) has motivated several maritime analytics operations. Vessel Location Forecasting (VLF) is one of the most critical operations for maritime awareness. However, accurate VLF is a challenging problem due to the complexity and dynamic nature of maritime traffic conditions. Furthermore, as privacy concerns and restrictions have grown, training data has become increasingly fragmented, resulting in dispersed databases of several isolated data silos among different organizations, which in turn decreases the quality of learning models. In this paper, we propose an efficient VLF solution based on LSTM neural networks, in two variants, namely Nautilus and FedNautilus for the centralized and the federated learning approach, respectively. We also demonstrate the superiority of the centralized approach with respect to current state of the art and discuss the advantages and disadvantages of the federated against the centralized approach.
- Abstract(参考訳): 自動識別システム(AIS)の広範な普及は、いくつかの海洋分析業務を動機付けている。
船舶位置予測(VLF)は海上での意識を高める上で最も重要な作戦の一つである。
しかし、海上交通条件の複雑さと動的性質のため、正確なVLFは難しい問題である。
さらに、プライバシの懸念や制限が大きくなるにつれて、トレーニングデータの断片化が進み、複数の独立したデータサイロの分散データベースがさまざまな組織に分散し、結果として学習モデルの品質が低下する。
本稿では、LSTMニューラルネットワークに基づく効率的なVLFソリューションを提案し、集中学習とフェデレーション学習の2つの変種、すなわちNautilusとFedNautilusをそれぞれ提案する。
我々はまた、現在の最先端に対する中央集権的アプローチの優位性を実証し、中央集権的アプローチに対する連邦の利点とデメリットについて議論する。
関連論文リスト
- Provable Privacy Advantages of Decentralized Federated Learning via Distributed Optimization [16.418338197742287]
フェデレートラーニング(FL)は、データのソースへの配置を可能にすることによって、データのプライバシを改善するために設計されたパラダイムとして登場した。
最近の知見は、分散FLは、集中型モデルよりも追加のプライバシやセキュリティ上のメリットを経験的に提供していないことを示唆している。
分散最適化をデプロイする際の分散FLは、プライバシー保護の強化を実証する。
論文 参考訳(メタデータ) (2024-07-12T15:01:09Z) - Over-the-Air Federated Learning and Optimization [52.5188988624998]
エッジ・ザ・エア計算(AirComp)によるフェデレーション学習(FL)に焦点を当てる。
本稿では,AirComp ベースの FedAvg (AirFedAvg) アルゴリズムの凸および非凸条件下での収束について述べる。
エッジデバイス(モデル、勾配、モデル差など)で送信できるローカルアップデートの種類によって、AirFedAvgで送信するとアグリゲーションエラーが発生する可能性がある。
さらに、より実用的な信号処理方式を検討し、通信効率を改善し、これらの信号処理方式によって引き起こされるモデル集約誤差の異なる形式に収束解析を拡張する。
論文 参考訳(メタデータ) (2023-10-16T05:49:28Z) - Physics Inspired Hybrid Attention for SAR Target Recognition [61.01086031364307]
本稿では,物理にヒントを得たハイブリットアテンション(PIHA)機構と,この問題に対処するためのOFA評価プロトコルを提案する。
PIHAは、物理的情報の高レベルなセマンティクスを活用して、ターゲットの局所的なセマンティクスを認識した特徴群を活性化し、誘導する。
提案手法は,ASCパラメータが同じ12のテストシナリオにおいて,他の最先端手法よりも優れている。
論文 参考訳(メタデータ) (2023-09-27T14:39:41Z) - Enabling Quartile-based Estimated-Mean Gradient Aggregation As Baseline
for Federated Image Classifications [5.5099914877576985]
Federated Learning(FL)は、機密データを保護し、モデルパフォーマンスを改善しながら、分散コラボレーションを可能にすることによって、ディープニューラルネットワークのトレーニング方法に革命をもたらした。
本稿では,これらの課題に対処するだけでなく,FLシステムにおける高度な集約技術に対して$mathsfbaseline$として基本的な参照ポイントを提供する,Estimated Mean Aggregation (EMA) という革新的なソリューションを紹介する。
論文 参考訳(メタデータ) (2023-09-21T17:17:28Z) - UNIDEAL: Curriculum Knowledge Distillation Federated Learning [17.817181326740698]
フェデレートラーニング(FL)は、複数のクライアント間で協調学習を可能にする、有望なアプローチとして登場した。
本稿では,ドメイン横断シナリオの課題に対処するための新しいFLアルゴリズムであるUNIを提案する。
この結果から,UNIはモデル精度と通信効率の両面において優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2023-09-16T11:30:29Z) - Plankton-FL: Exploration of Federated Learning for Privacy-Preserving
Training of Deep Neural Networks for Phytoplankton Classification [81.04987357598802]
本研究では,植物プランクトン分類のための深層ニューラルネットワークのプライバシー保護トレーニングにフェデレート学習を活用する可能性を検討する。
我々は2つの異なるフェデレーション学習フレームワーク、フェデレーション学習(FL)と相互排他的FL(ME-FL)をシミュレートする。
本研究では,植物プランクトンモニタリングにおけるフェデレート学習の可能性と可能性について実験的に検証した。
論文 参考訳(メタデータ) (2022-12-18T02:11:03Z) - Federated Learning with Privacy-Preserving Ensemble Attention
Distillation [63.39442596910485]
Federated Learning(FL)は、多くのローカルノードがトレーニングデータを分散化しながら、中央モデルを協調的にトレーニングする機械学習パラダイムである。
本稿では,未ラベル公開データを利用した一方向オフライン知識蒸留のためのプライバシー保護FLフレームワークを提案する。
我々の技術は、既存のFLアプローチのような分散的で異質なローカルデータを使用するが、より重要なのは、プライバシー漏洩のリスクを著しく低減することです。
論文 参考訳(メタデータ) (2022-10-16T06:44:46Z) - Federated Learning under Distributed Concept Drift [30.069809537266575]
分散コンセプトドリフト下でのフェデレートラーニング(FL)は、ほとんど探索されていない分野である。
まず, ドリフト適応に対する先行解が, 単一のグローバルモデルで, 停滞するドリフトに不適であることを実証した。
局所的ドリフト検出と階層的クラスタリングに基づくドリフトに反応する2つの新しいクラスタリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-06-01T23:55:21Z) - Low-Latency Federated Learning over Wireless Channels with Differential
Privacy [142.5983499872664]
フェデレートラーニング(FL)では、モデルトレーニングはクライアントに分散し、ローカルモデルは中央サーバによって集約される。
本稿では,各クライアントの差分プライバシ(DP)要件だけでなく,全体としてのトレーニング性能に制約された無線チャネル上でのFLトレーニング遅延を最小限に抑えることを目的とする。
論文 参考訳(メタデータ) (2021-06-20T13:51:18Z) - Quasi-Global Momentum: Accelerating Decentralized Deep Learning on
Heterogeneous Data [77.88594632644347]
ディープラーニングモデルの分散トレーニングは、ネットワーク上でデータプライバシとデバイス上での学習を可能にする重要な要素である。
現実的な学習シナリオでは、異なるクライアントのローカルデータセットに異質性が存在することが最適化の課題となる。
本稿では,この分散学習の難しさを軽減するために,運動量に基づく新しい手法を提案する。
論文 参考訳(メタデータ) (2021-02-09T11:27:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。