論文の概要: FedReplay: A Feature Replay Assisted Federated Transfer Learning Framework for Efficient and Privacy-Preserving Smart Agriculture
- arxiv url: http://arxiv.org/abs/2511.00269v1
- Date: Fri, 31 Oct 2025 21:44:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 16:37:26.704663
- Title: FedReplay: A Feature Replay Assisted Federated Transfer Learning Framework for Efficient and Privacy-Preserving Smart Agriculture
- Title(参考訳): FedReplay: 効率的なプライバシ保護型スマート農業のためのフェデレーション・トランスファー学習フレームワーク
- Authors: Long Li, Jiajia Li, Dong Chen, Lina Pu, Haibo Yao, Yanbo Huang,
- Abstract要約: 本稿では,フリーズコントラスト言語-画像事前学習(CLIP)ビジョントランスフォーマ(ViT)を軽量なトランスフォーマー分類器に統合するフェデレーション学習フレームワークを提案する。
提案手法の精度は86.6%であり,ベースライン・フェデレーション学習手法の4倍以上である。
- 参考スコア(独自算出の注目度): 12.147898852881914
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Accurate classification plays a pivotal role in smart agriculture, enabling applications such as crop monitoring, fruit recognition, and pest detection. However, conventional centralized training often requires large-scale data collection, which raises privacy concerns, while standard federated learning struggles with non-independent and identically distributed (non-IID) data and incurs high communication costs. To address these challenges, we propose a federated learning framework that integrates a frozen Contrastive Language-Image Pre-training (CLIP) vision transformer (ViT) with a lightweight transformer classifier. By leveraging the strong feature extraction capability of the pre-trained CLIP ViT, the framework avoids training large-scale models from scratch and restricts federated updates to a compact classifier, thereby reducing transmission overhead significantly. Furthermore, to mitigate performance degradation caused by non-IID data distribution, a small subset (1%) of CLIP-extracted feature representations from all classes is shared across clients. These shared features are non-reversible to raw images, ensuring privacy preservation while aligning class representation across participants. Experimental results on agricultural classification tasks show that the proposed method achieve 86.6% accuracy, which is more than 4 times higher compared to baseline federated learning approaches. This demonstrates the effectiveness and efficiency of combining vision-language model features with federated learning for privacy-preserving and scalable agricultural intelligence.
- Abstract(参考訳): 正確な分類はスマート農業において重要な役割を担い、作物のモニタリング、果物の認識、害虫検出などの応用を可能にしている。
しかし、従来の集中型トレーニングでは、プライバシの懸念を生じさせる大規模なデータ収集を必要とすることが多いが、標準的なフェデレーション学習は、非独立的で同一に分散された(IIDではない)データに苦労し、高い通信コストを発生させる。
これらの課題に対処するために、フリーズされたコントラスト言語-画像事前学習(CLIP)ビジョントランスフォーマ(ViT)と軽量なトランスフォーマー分類器を統合するフェデレーション学習フレームワークを提案する。
事前訓練されたCLIP ViTの強力な特徴抽出機能を活用することで、大規模モデルのスクラッチからのトレーニングを回避し、コンパクトな分類器へのフェデレーション更新を制限し、送信オーバーヘッドを大幅に削減する。
さらに、非IIDデータ分散による性能劣化を軽減するため、CLIP抽出されたすべてのクラスの特徴表現の小さなサブセット(1%)がクライアント間で共有される。
これらの共有機能は、生の画像に対して不可逆であり、参加者間のクラス表現を整列させながら、プライバシ保護を保証する。
農業分類タスクの実験結果から,提案手法の精度は86.6%であり,ベースライン・フェデレーション学習の4倍以上であることがわかった。
これは、プライバシ保存とスケーラブルな農業インテリジェンスのためのフェデレーション学習と視覚言語モデル機能の組み合わせの有効性と効率性を示す。
関連論文リスト
- Learning More with Less: A Generalizable, Self-Supervised Framework for Privacy-Preserving Capacity Estimation with EV Charging Data [84.37348569981307]
自己教師付き事前学習に基づく第一種能力推定モデルを提案する。
我々のモデルは一貫して最先端のベースラインを上回っている。
論文 参考訳(メタデータ) (2025-10-05T08:58:35Z) - VLLFL: A Vision-Language Model Based Lightweight Federated Learning Framework for Smart Agriculture [12.147898852881914]
視覚言語モデルに基づく軽量フェデレーション学習フレームワークVLLFLを提案する。
ビジョン言語モデル(VLM)の一般化とコンテキスト認識検出機能を活用し、フェデレーション学習のプライバシー保護性を活用する。
VLLFLはVLMの性能を14.53%改善し、通信オーバーヘッドを99.3%削減した。
論文 参考訳(メタデータ) (2025-04-17T22:14:31Z) - FedRSClip: Federated Learning for Remote Sensing Scene Classification Using Vision-Language Models [23.830133838392964]
本稿では,VLM,特にCLIPに基づくリモートセンシング画像分類のための最初のフェデレーション学習フレームワークであるFedRSCLIPを提案する。
FedRSCLIPは、Prompt Learningを導入することで、フェデレーション環境におけるデータ不均一性と大規模モデル伝送の課題に対処する。
提案モデルの有効性を検証するため,既存の3つのリモートセンシング画像分類データセットに基づいてFed-RSICデータセットを構築した。
論文 参考訳(メタデータ) (2025-01-05T07:10:27Z) - Efficient Prompt Tuning of Large Vision-Language Model for Fine-Grained Ship Classification [59.99976102069976]
リモートセンシング(RS-FGSC)における船のきめ細かい分類は、クラス間の高い類似性とラベル付きデータの限られた可用性のために大きな課題となる。
大規模な訓練済みビジョンランゲージモデル(VLM)の最近の進歩は、少数ショット学習やゼロショット学習において印象的な能力を示している。
本研究は, 船種別分類精度を高めるために, VLMの可能性を生かしたものである。
論文 参考訳(メタデータ) (2024-03-13T05:48:58Z) - Stabilizing and Improving Federated Learning with Non-IID Data and
Client Dropout [15.569507252445144]
ラベル分布スキューによるデータヘテロジェニーティは、フェデレート学習におけるモデル性能を制限する重要な障害であることが示されている。
クロスエントロピー損失を計算するための事前校正ソフトマックス関数を導入することで、シンプルで効果的なフレームワークを提案する。
非IIDデータとクライアントドロップアウトの存在下で、既存のベースラインよりも優れたモデル性能を示す。
論文 参考訳(メタデータ) (2023-03-11T05:17:59Z) - Vertical Semi-Federated Learning for Efficient Online Advertising [50.18284051956359]
VFLの実践的な産業的応用を実現するために,Semi-VFL (Vertical Semi-Federated Learning) を提案する。
サンプル空間全体に適用可能な推論効率のよいシングルパーティ学生モデルを構築した。
新しい表現蒸留法は、重なり合うデータと非重なり合うデータの両方について、パーティ間の特徴相関を抽出するように設計されている。
論文 参考訳(メタデータ) (2022-09-30T17:59:27Z) - Federated Self-Supervised Contrastive Learning via Ensemble Similarity
Distillation [42.05438626702343]
本稿では,未ラベルのクライアントデータによる良好な表現空間の学習の実現可能性について検討する。
本稿では,アーキテクチャに依存しないローカルトレーニングとコミュニケーション効率のよいグローバルアグリゲーションをサポートする,自己指導型コントラスト学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-29T02:13:22Z) - No Fear of Heterogeneity: Classifier Calibration for Federated Learning
with Non-IID Data [78.69828864672978]
実世界のフェデレーションシステムにおける分類モデルのトレーニングにおける中心的な課題は、非IIDデータによる学習である。
このアルゴリズムは, 近似されたssian混合モデルからサンプリングした仮想表現を用いて分類器を調整する。
実験の結果,CIFAR-10,CIFAR-100,CINIC-10など,一般的なフェデレーション学習ベンチマークにおけるCCVRの現状が示された。
論文 参考訳(メタデータ) (2021-06-09T12:02:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。