論文の概要: Federated Distillation Assisted Vehicle Edge Caching Scheme Based on Lightweight DDPM
- arxiv url: http://arxiv.org/abs/2512.09378v1
- Date: Wed, 10 Dec 2025 07:19:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-11 15:14:53.430792
- Title: Federated Distillation Assisted Vehicle Edge Caching Scheme Based on Lightweight DDPM
- Title(参考訳): 軽量DDPMに基づくフェデレーション蒸留支援車両エッジキャッシング方式
- Authors: Xun Li, Qiong Wu, Pingyi Fan, Kezhi Wang, Wen Chen, Khaled B. Letaief,
- Abstract要約: 車両エッジキャッシングは、エッジノードでユーザ関心のあるコンテンツを事前にキャッシュすることで、車両ユーザ(VU)がコンテンツにアクセスするための遅延を大幅に低減することができる。
従来のフェデレーション学習(FL)は、生データではなくモデルを共有することによって、ユーザのプライバシを保護する。
軽量拡散確率モデル(LDPM)に基づくフェデレーション蒸留支援車両エッジキャッシュ方式を提案する。
- 参考スコア(独自算出の注目度): 39.10185886001752
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Vehicle edge caching is a promising technology that can significantly reduce the latency for vehicle users (VUs) to access content by pre-caching user-interested content at edge nodes. It is crucial to accurately predict the content that VUs are interested in without exposing their privacy. Traditional federated learning (FL) can protect user privacy by sharing models rather than raw data. However, the training of FL requires frequent model transmission, which can result in significant communication overhead. Additionally, vehicles may leave the road side unit (RSU) coverage area before training is completed, leading to training failures. To address these issues, in this letter, we propose a federated distillation-assisted vehicle edge caching scheme based on lightweight denoising diffusion probabilistic model (LDPM). The simulation results demonstrate that the proposed vehicle edge caching scheme has good robustness to variations in vehicle speed, significantly reducing communication overhead and improving cache hit percentage.
- Abstract(参考訳): 車両エッジキャッシングは、エッジノードでユーザ関心のあるコンテンツを事前にキャッシュすることで、車両ユーザ(VU)がコンテンツにアクセスする遅延を大幅に低減する、有望な技術である。
プライバシーを公開することなく、VUが関心を持っているコンテンツを正確に予測することが重要です。
従来のフェデレーション学習(FL)は、生データではなくモデルを共有することによって、ユーザのプライバシを保護する。
しかし、FLの訓練には頻繁なモデル伝送が必要であり、通信オーバーヘッドが大きくなる可能性がある。
さらに、車両は訓練が完了する前にロードサイドユニット(RSU)のカバレッジエリアを離れることができ、訓練の失敗に繋がる。
これらの問題に対処するため,本論文では,軽量拡散確率モデル(LDPM)に基づく蒸留支援車両エッジキャッシュ方式を提案する。
シミュレーションの結果,提案手法は車両速度の変動に優れたロバスト性を有し,通信オーバヘッドを大幅に低減し,キャッシュヒット率の向上を図っている。
関連論文リスト
- Hiding in Plain Sight: An IoT Traffic Camouflage Framework for Enhanced Privacy [2.0257616108612373]
パケットパディングのような既存の技術的難読化手法は、スマートホームのような動的な環境では不足することが多い。
本稿では,交通分析を中断させることでプライバシーを向上する多技術難読化フレームワークを提案する。
論文 参考訳(メタデータ) (2025-01-26T04:33:44Z) - Mobility-Aware Federated Self-supervised Learning in Vehicular Network [8.30695698868618]
Federated Learning(FL)は、高度な分散機械学習アプローチである。
ロードサイドユニット(RSU)にすべてのデータをアップロードすることなく、モデルを複数のデバイスで同時にトレーニングすることで、各車両のプライバシを保護する。
本稿では,ラベルを必要とせず,車載環境下での自己教師型学習のための事前学習段階として機能するFLSimCoという,画像ボケレベルからアグリゲーションへのFLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-08-01T03:28:10Z) - Sparse Federated Training of Object Detection in the Internet of
Vehicles [13.864554148921826]
物体検出は、IoV(Internet of Vehicles)の鍵となる技術の一つである
現在のオブジェクト検出方法は、主に集中的な深層トレーニングに基づいており、エッジデバイスが取得したセンシティブなデータをサーバにアップロードする必要がある。
そこで本研究では,よく訓練されたローカルモデルを中央サーバで共有する,フェデレート学習ベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-07T08:58:41Z) - Over-the-Air Federated Learning with Privacy Protection via Correlated
Additive Perturbations [57.20885629270732]
我々は、複数のユーザ/エージェントからエッジサーバへの勾配更新をOtA(Over-the-Air)で送信することで、無線フェデレーション学習のプライバシー面を考察する。
従来の摂動に基づく手法は、トレーニングの精度を犠牲にしてプライバシー保護を提供する。
本研究では,エッジサーバにおけるプライバシリークの最小化とモデル精度の低下を目標とする。
論文 参考訳(メタデータ) (2022-10-05T13:13:35Z) - Mobility-Aware Cooperative Caching in Vehicular Edge Computing Based on
Asynchronous Federated and Deep Reinforcement Learning [28.564236336847138]
vehicular edge computing (VEC)は、リアルタイムのvehicularアプリケーションをサポートするために、異なるRSUのコンテンツをネットワークエッジにキャッシュすることができる。
従来のフェデレートラーニング(FL)では、ユーザのプライバシを保護するために、すべてのユーザのローカルモデルを集約することで、グローバルモデルを同期的に更新する必要がある。
Asynchronous Federated and Deep Reinforcement Learning (CAFR)に基づくVECにおける協調型キャッシング手法を提案する。
論文 参考訳(メタデータ) (2022-08-02T03:09:08Z) - Federated Deep Learning Meets Autonomous Vehicle Perception: Design and
Verification [168.67190934250868]
フェデレーテッド・ラーニング・パワード・コネクテッド・オートモービル(FLCAV)が提案されている。
FLCAVは通信とアノテーションのコストを削減しながらプライバシを保存する。
マルチステージトレーニングのためのネットワークリソースと道路センサのポーズを決定することは困難である。
論文 参考訳(メタデータ) (2022-06-03T23:55:45Z) - Real Time Monocular Vehicle Velocity Estimation using Synthetic Data [78.85123603488664]
移動車に搭載されたカメラから車両の速度を推定する問題を考察する。
そこで本研究では,まずオフ・ザ・シェルフ・トラッカーを用いて車両バウンディングボックスを抽出し,その後,小型ニューラルネットワークを用いて車両速度を回帰する2段階のアプローチを提案する。
論文 参考訳(メタデータ) (2021-09-16T13:10:27Z) - Efficient and Robust LiDAR-Based End-to-End Navigation [132.52661670308606]
我々は,LiDARをベースとした効率的なエンドツーエンドナビゲーションフレームワークを提案する。
本稿では,スパース畳み込みカーネル最適化とハードウェア対応モデル設計に基づくFast-LiDARNetを提案する。
次に,単一の前方通過のみから予測の不確かさを直接推定するハイブリッド・エビデンシャル・フュージョンを提案する。
論文 参考訳(メタデータ) (2021-05-20T17:52:37Z) - A Privacy-Preserving-Oriented DNN Pruning and Mobile Acceleration
Framework [56.57225686288006]
モバイルエッジデバイスの限られたストレージとコンピューティング能力を満たすために、ディープニューラルネットワーク(DNN)の軽量プルーニングが提案されている。
従来のプルーニング手法は主に、ユーザデータのプライバシを考慮せずに、モデルのサイズを減らしたり、パフォーマンスを向上させることに重点を置いていた。
プライベートトレーニングデータセットを必要としないプライバシ保護指向のプルーニングおよびモバイルアクセラレーションフレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-13T23:52:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。