論文の概要: Adaptive federated learning for ship detection across diverse satellite imagery sources
- arxiv url: http://arxiv.org/abs/2512.12053v1
- Date: Fri, 12 Dec 2025 21:45:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-16 17:54:56.083908
- Title: Adaptive federated learning for ship detection across diverse satellite imagery sources
- Title(参考訳): 各種衛星画像からの船舶検出のための適応的フェデレーション学習
- Authors: Tran-Vu La, Minh-Tan Pham, Yu Li, Patrick Matgen, Marco Chini,
- Abstract要約: 各種衛星データを対象とした船体検出におけるフェデレートラーニング(FL)の適用について検討する。
FedOpt、FedProx、FedMedianを含む4つのFLモデルを評価し、ローカルトレーニングベースラインと比較した。
その結果、FLモデルにより、より小さなローカルデータセットのトレーニングよりも検出精度が大幅に向上することが判明した。
- 参考スコア(独自算出の注目度): 9.773200978257814
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We investigate the application of Federated Learning (FL) for ship detection across diverse satellite datasets, offering a privacy-preserving solution that eliminates the need for data sharing or centralized collection. This approach is particularly advantageous for handling commercial satellite imagery or sensitive ship annotations. Four FL models including FedAvg, FedProx, FedOpt, and FedMedian, are evaluated and compared to a local training baseline, where the YOLOv8 ship detection model is independently trained on each dataset without sharing learned parameters. The results reveal that FL models substantially improve detection accuracy over training on smaller local datasets and achieve performance levels close to global training that uses all datasets during the training. Furthermore, the study underscores the importance of selecting appropriate FL configurations, such as the number of communication rounds and local training epochs, to optimize detection precision while maintaining computational efficiency.
- Abstract(参考訳): 本稿では,データ共有や集中収集の不要なプライバシ保護ソリューションとして,さまざまな衛星データセットの出荷検出にフェデレートラーニング(FL)の適用について検討する。
このアプローチは、商用衛星画像や機密船のアノテーションを扱うのに特に有利である。
FedAvg、FedProx、FedOpt、FedMedianを含む4つのFLモデルを評価し、ローカルトレーニングベースラインと比較する。
その結果、FLモデルは、小さなローカルデータセットのトレーニングよりも検出精度を大幅に改善し、トレーニング中にすべてのデータセットを使用するグローバルトレーニングに近いパフォーマンスレベルを達成することがわかった。
さらに,本研究は,通信ラウンド数や局所訓練エポック数などの適切なFL構成を選択することの重要性を強調し,計算効率を維持しながら検出精度を最適化する。
関連論文リスト
- Enhancing Federated Learning Convergence with Dynamic Data Queue and Data Entropy-driven Participant Selection [13.825031686864559]
Federated Learning(FL)は、エッジデバイス上でのコラボレーティブモデルトレーニングのための分散アプローチである。
本稿では,サーバ上のデータのグローバルサブセットを作成し,デバイス間で動的に分散することにより,FLの収束を改善する手法を提案する。
提案手法により,MNISTデータセットでは約5%,CIFAR-10では約18%,CIFAR-100では約20%の精度向上を実現した。
論文 参考訳(メタデータ) (2024-10-23T11:47:04Z) - GLRT-Based Metric Learning for Remote Sensing Object Retrieval [19.210692452537007]
既存のCBRSOR法は、訓練段階と試験段階の両方において、グローバルな統計情報の利用を無視する。
ナイマン・ピアソンの定理にインスパイアされた我々は、一般化された確率比テストベースメトリックラーニング(GLRTML)アプローチを提案する。
論文 参考訳(メタデータ) (2024-10-08T07:53:30Z) - Multi-level Personalized Federated Learning on Heterogeneous and Long-Tailed Data [10.64629029156029]
マルチレベル・パーソナライズド・フェデレーション・ラーニング(MuPFL)という革新的パーソナライズド・パーソナライズド・ラーニング・フレームワークを導入する。
MuPFLは3つの重要なモジュールを統合している: Biased Activation Value Dropout (BAVD), Adaptive Cluster-based Model Update (ACMU), Prior Knowledge-assisted Fine-tuning (PKCF)。
様々な実世界のデータセットの実験では、MuPFLは極端に非i.d.と長い尾の条件下であっても、最先端のベースラインを一貫して上回っている。
論文 参考訳(メタデータ) (2024-05-10T11:52:53Z) - Semi-Federated Learning: Convergence Analysis and Optimization of A
Hybrid Learning Framework [70.83511997272457]
本稿では,ベースステーション(BS)とデバイスの両方を活用するセミフェデレーション学習(SemiFL)パラダイムを提案し,中央集権学習(CL)とFLのハイブリッド実装を提案する。
我々はこの難解な問題を解くための2段階のアルゴリズムを提案し、ビームフォーマに閉形式解を提供する。
論文 参考訳(メタデータ) (2023-10-04T03:32:39Z) - Adaptive Model Pruning and Personalization for Federated Learning over
Wireless Networks [72.59891661768177]
フェデレーション学習(FL)は、データプライバシを保護しながら、エッジデバイス間での分散学習を可能にする。
これらの課題を克服するために、部分的なモデルプルーニングとパーソナライズを備えたFLフレームワークを検討する。
このフレームワークは、学習モデルを、データ表現を学ぶためにすべてのデバイスと共有されるモデルプルーニングと、特定のデバイスのために微調整されるパーソナライズされた部分とで、グローバルな部分に分割する。
論文 参考訳(メタデータ) (2023-09-04T21:10:45Z) - Collaborative Learning with a Drone Orchestrator [79.75113006257872]
インテリジェントな無線デバイス群は、ドローンの助けを借りて共有ニューラルネットワークモデルを訓練する。
提案したフレームワークは,トレーニングの大幅な高速化を実現し,ドローンホバリング時間の平均24%と87%の削減を実現している。
論文 参考訳(メタデータ) (2023-03-03T23:46:25Z) - Online Data Selection for Federated Learning with Limited Storage [53.46789303416799]
ネットワークデバイス間での分散機械学習を実現するために、フェデレートラーニング(FL)が提案されている。
デバイス上のストレージがFLの性能に与える影響はまだ調査されていない。
本研究では,デバイス上のストレージを限定したFLのオンラインデータ選択について検討する。
論文 参考訳(メタデータ) (2022-09-01T03:27:33Z) - Acceleration of Federated Learning with Alleviated Forgetting in Local
Training [61.231021417674235]
フェデレートラーニング(FL)は、プライバシを保護しながら機械学習モデルの分散最適化を可能にする。
我々は,FedRegを提案する。FedRegは,局所的な訓練段階において,知識を忘れることなくFLを加速するアルゴリズムである。
我々の実験は、FedRegはFLの収束率を著しく改善するだけでなく、特にニューラルネットワークアーキテクチャが深い場合にも改善することを示した。
論文 参考訳(メタデータ) (2022-03-05T02:31:32Z) - Sample Selection with Deadline Control for Efficient Federated Learning
on Heterogeneous Clients [8.350621280672891]
Federated Learning (FL)は、個々のデータを公開せずに、分散クライアント上で機械学習モデルをトレーニングする。
クライアントのトレーニングサンプルを積極的に選択する体系的なFLフレームワークであるFedBalancerを提案する。
モデル精度を1.03.3%向上させながら,FedBalancerは1.224.62倍の精度向上を実現した。
論文 参考訳(メタデータ) (2022-01-05T13:35:35Z) - Communication-Efficient Hierarchical Federated Learning for IoT
Heterogeneous Systems with Imbalanced Data [42.26599494940002]
フェデレートラーニング(Federated Learning, FL)は、複数のノードが協調してディープラーニングモデルをトレーニングできる分散ラーニング方法論である。
本稿では,IoTヘテロジニアスシステムにおける階層FLの可能性について検討する。
複数のエッジノード上でのユーザ割り当てとリソース割り当てに最適化されたソリューションを提案する。
論文 参考訳(メタデータ) (2021-07-14T08:32:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。