論文の概要: FedTDP: A Privacy-Preserving and Unified Framework for Trajectory Data Preparation via Federated Learning
- arxiv url: http://arxiv.org/abs/2505.05155v1
- Date: Thu, 08 May 2025 11:51:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-09 21:43:49.864174
- Title: FedTDP: A Privacy-Preserving and Unified Framework for Trajectory Data Preparation via Federated Learning
- Title(参考訳): FedTDP:フェデレーションラーニングによる軌道データ作成のためのプライバシ保護と統一フレームワーク
- Authors: Zhihao Zeng, Ziquan Fang, Wei Shao, Lu Chen, Yunjun Gao,
- Abstract要約: トラジェクトリデータは、交通最適化や都市計画といったアプリケーションには不可欠である。
我々は、トラジェクティブデータ作成のためのプライバシー保護と統合化フレームワークであるFedTDPを提案する。
我々はFedTDPが13の最先端ベースラインを一貫して上回っていることを示す。
- 参考スコア(独自算出の注目度): 24.807469435453445
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Trajectory data, which capture the movement patterns of people and vehicles over time and space, are crucial for applications like traffic optimization and urban planning. However, issues such as noise and incompleteness often compromise data quality, leading to inaccurate trajectory analyses and limiting the potential of these applications. While Trajectory Data Preparation (TDP) can enhance data quality, existing methods suffer from two key limitations: (i) they do not address data privacy concerns, particularly in federated settings where trajectory data sharing is prohibited, and (ii) they typically design task-specific models that lack generalizability across diverse TDP scenarios. To overcome these challenges, we propose FedTDP, a privacy-preserving and unified framework that leverages the capabilities of Large Language Models (LLMs) for TDP in federated environments. Specifically, we: (i) design a trajectory privacy autoencoder to secure data transmission and protect privacy, (ii) introduce a trajectory knowledge enhancer to improve model learning of TDP-related knowledge, enabling the development of TDP-oriented LLMs, and (iii) propose federated parallel optimization to enhance training efficiency by reducing data transmission and enabling parallel model training. Experiments on 6 real datasets and 10 mainstream TDP tasks demonstrate that FedTDP consistently outperforms 13 state-of-the-art baselines.
- Abstract(参考訳): 交通の最適化や都市計画といった応用には、時間と空間を通じて人や車の移動パターンをキャプチャする軌道データが不可欠だ。
しかし、ノイズや不完全性といった問題は、しばしばデータ品質を損なうため、不正確な軌道解析とこれらの応用の可能性を制限することになる。
Trajectory Data Preparation (TDP)はデータ品質を向上させることができるが、既存のメソッドには2つの重要な制限がある。
(i)特に軌道データ共有が禁止されている連合環境では、データのプライバシー上の懸念に対処しない。
(ii) 様々なTDPシナリオにまたがる一般化性に欠けるタスク特化モデルを設計するのが一般的である。
これらの課題を克服するために、フェデレーション環境におけるTDPのためのLarge Language Models (LLMs) の機能を活用するプライバシー保護と統一化フレームワークであるFedTDPを提案する。
具体的には
(i)データ送信の安全とプライバシ保護のためのトラジェクティブプライバシオートエンコーダを設計する。
(II)TDP関連知識のモデル学習を改善し、TDP指向LLMの開発を可能にするトラジェクトリ・ナレッジ・エンハンサーを導入し、
3)データ伝送を削減し,並列モデルの訓練を可能にすることにより,訓練効率を向上させるための並列並列最適化を提案する。
6つの実際のデータセットと10のメインストリームのTDPタスクの実験は、FedTDPが一貫して13の最先端ベースラインを上回っていることを示している。
関連論文リスト
- FewFedPIT: Towards Privacy-preserving and Few-shot Federated Instruction Tuning [54.26614091429253]
フェデレーション・インストラクション・チューニング(FedIT)は、複数のデータ所有者間で協調的なトレーニングを統合することで、有望なソリューションである。
FedITは、インストラクショナルデータの不足や、トレーニングデータ抽出攻撃への露出リスクなどの制限に直面している。
本稿では,FewFedPITを提案する。このFewFedPITは,フェデレートされた数ショット学習のプライバシー保護とモデル性能を同時に向上する。
論文 参考訳(メタデータ) (2024-03-10T08:41:22Z) - Privacy-Preserving Data Fusion for Traffic State Estimation: A Vertical
Federated Learning Approach [3.109306676759862]
交通状態推定(TSE)のためのプライバシ保護データ融合法を提案する。
複数のデータオーナ間のコラボレーションやデータ共有で発生するデータプライバシの懸念に,私たちは明確に対処しています。
論文 参考訳(メタデータ) (2024-01-22T10:52:22Z) - Federated Learning Empowered by Generative Content [55.576885852501775]
フェデレートラーニング(FL)は、プライバシ保護方法でモデルのトレーニングに分散プライベートデータを活用可能にする。
本稿では,FedGCと呼ばれる新しいFLフレームワークを提案する。
我々は、さまざまなベースライン、データセット、シナリオ、モダリティをカバーする、FedGCに関する体系的な実証的研究を行う。
論文 参考訳(メタデータ) (2023-12-10T07:38:56Z) - Privacy-preserving design of graph neural networks with applications to
vertical federated learning [56.74455367682945]
VESPERと呼ばれるエンドツーエンドのグラフ表現学習フレームワークを提案する。
VESPERは、適切なプライバシー予算の下でスパースグラフと密度グラフの両方で高性能なGNNモデルをトレーニングすることができる。
論文 参考訳(メタデータ) (2023-10-31T15:34:59Z) - Efficient Federated Prompt Tuning for Black-box Large Pre-trained Models [62.838689691468666]
我々は,各ローカルデータセットを最適に活用するためのフェデレートブラックボックス・プロンプト・チューニング(Fed-BBPT)を提案する。
Fed-BBPTは、ローカルユーザーがレギュラーアグリゲーションを通じてプロンプトジェネレータを協調的に訓練するのを支援する中央サーバーに重点を置いている。
大規模な微調整とは対照的に、Fed-BBPTは、PTMストレージとローカルマシンの微調整に関連するメモリの課題を、十分にサイドステップで解決している。
論文 参考訳(メタデータ) (2023-10-04T19:30:49Z) - A Unified View of Differentially Private Deep Generative Modeling [60.72161965018005]
プライバシー上の懸念のあるデータには、データアクセスとデータ共有を頻繁に禁止する厳格な規制が伴う。
これらの障害を克服することは、プライバシーに敏感なデータを含む多くの現実世界のアプリケーションシナリオにおいて、技術的進歩の鍵となる。
差分的プライベート(DP)データパブリッシングは、データの衛生化された形式のみを公開する、魅力的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-09-27T14:38:16Z) - PS-FedGAN: An Efficient Federated Learning Framework Based on Partially
Shared Generative Adversarial Networks For Data Privacy [56.347786940414935]
分散計算のための効果的な学習パラダイムとして、フェデレートラーニング(FL)が登場した。
本研究は,部分的なGANモデル共有のみを必要とする新しいFLフレームワークを提案する。
PS-FedGANと名付けられたこの新しいフレームワークは、異種データ分散に対処するためのGANリリースおよびトレーニングメカニズムを強化する。
論文 参考訳(メタデータ) (2023-05-19T05:39:40Z) - FedPDD: A Privacy-preserving Double Distillation Framework for
Cross-silo Federated Recommendation [4.467445574103374]
クロスプラットフォームレコメンデーションは、さまざまなプラットフォームから異種機能を集めることで、レコメンデーションの精度を向上させることを目的としている。
このようなプラットフォーム間のクロスサイロなコラボレーションは、ますます厳しいプライバシー保護規制によって制限される。
クロスサイロ・フェデレーション・レコメンデーションのための新しいプライバシー保護型二重蒸留フレームワークであるFedPDDを提案する。
論文 参考訳(メタデータ) (2023-05-09T16:17:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。