論文の概要: MobText-SISA: Efficient Machine Unlearning for Mobility Logs with Spatio-Temporal and Natural-Language Data
- arxiv url: http://arxiv.org/abs/2508.19554v1
- Date: Wed, 27 Aug 2025 03:55:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-28 19:07:41.48395
- Title: MobText-SISA: Efficient Machine Unlearning for Mobility Logs with Spatio-Temporal and Natural-Language Data
- Title(参考訳): MobText-SISA: 時空間および自然言語データを用いたモビリティログの効率的な機械学習
- Authors: Haruki Yonekura, Ren Ozeki, Tatsuya Amano, Hamada Rizk, Hirozumi Yamaguchi,
- Abstract要約: 我々は、Sharded、Isolated Slice、AggregatedSIS(A)トレーニングを異種時間データに拡張するスケーラブルな機械学習フレームワークであるMobText-SISAを紹介する。
我々は,MobText-SISAが誤差と収束速度の両方でランダムシャーディングを一貫して上回っていることを示す。
これらの結果から,都市部におけるモビリティデータに基づくプライバシ準拠分析の実践的基盤として,MobText-SISAが確立された。
- 参考スコア(独自算出の注目度): 6.013377534625831
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Modern mobility platforms have stored vast streams of GPS trajectories, temporal metadata, free-form textual notes, and other unstructured data. Privacy statutes such as the GDPR require that any individual's contribution be unlearned on demand, yet retraining deep models from scratch for every request is untenable. We introduce MobText-SISA, a scalable machine-unlearning framework that extends Sharded, Isolated, Sliced, and Aggregated (SISA) training to heterogeneous spatio-temporal data. MobText-SISA first embeds each trip's numerical and linguistic features into a shared latent space, then employs similarity-aware clustering to distribute samples across shards so that future deletions touch only a single constituent model while preserving inter-shard diversity. Each shard is trained incrementally; at inference time, constituent predictions are aggregated to yield the output. Deletion requests trigger retraining solely of the affected shard from its last valid checkpoint, guaranteeing exact unlearning. Experiments on a ten-month real-world mobility log demonstrate that MobText-SISA (i) sustains baseline predictive accuracy, and (ii) consistently outperforms random sharding in both error and convergence speed. These results establish MobText-SISA as a practical foundation for privacy-compliant analytics on multimodal mobility data at urban scale.
- Abstract(参考訳): 現代のモビリティプラットフォームは、膨大なGPSトラジェクトリ、時間メタデータ、自由形式のテキストノート、その他の非構造化データを保存する。
GDPRのようなプライバシ規則では、要求に応じて個人の貢献を解放するが、要求ごとに深いモデルをスクラッチから再トレーニングすることは不可能である。
我々は、Sharded、Isolated、Sliced、Aggregated(SISA)トレーニングを異種時空間データに拡張するスケーラブルな機械学習フレームワークであるMobText-SISAを紹介した。
MobText-SISAはまず、各旅行の数値的特徴と言語的特徴を共有潜在空間に埋め込んで、類似性を考慮したクラスタリングを使用してサンプルをシャードに分散し、将来の削除がシャード間の多様性を維持しながら単一の構成モデルにのみ触れるようにしている。
それぞれのシャードは漸進的に訓練され、推測時に構成予測が集約されて出力が生成される。
削除要求は、影響のあるシャードのみを最後の有効なチェックポイントから再トレーニングし、正確なアンラーニングを保証する。
MobText-SISAが10ヶ月のリアルタイムモビリティログで実証された実験
(i)基準線予測精度を維持し、
(ii) 誤差と収束速度の両方においてランダムシャーディングを一貫して上回る。
これらの結果は,都市規模でのマルチモーダルモビリティデータに基づくプライバシコンプライアンス分析の実践的基盤として,MobText-SISAを確立した。
関連論文リスト
- MIRRAMS: Learning Robust Tabular Models under Unseen Missingness Shifts [2.5357049657770516]
欠落した値はしばしばデータ収集ポリシーのバリエーションを反映し、時間や場所によって変化することがある。
このようなトレーニングとテストインプットの間の不足分布の変化は、堅牢な予測性能を達成する上で大きな課題となる。
この課題に対処するために設計された,新しいディープラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2025-07-11T03:03:30Z) - STSA: Federated Class-Incremental Learning via Spatial-Temporal Statistics Aggregation [64.48462746540156]
Federated Class-Incremental Learning (FCIL)は、分散データからクラスインクリメンタルラーニングを可能にする。
本稿では,空間的(クライアント間)と時間的(ステージ間)の両方に特徴統計を集約する新しい手法を提案する。
本手法は, 性能, 柔軟性, 通信効率の両面で, 最先端のFCIL法よりも優れていることを示す。
論文 参考訳(メタデータ) (2025-06-02T05:14:57Z) - Spatial-Temporal-Spectral Unified Modeling for Remote Sensing Dense Prediction [20.1863553357121]
リモートセンシングのための現在のディープラーニングアーキテクチャは、基本的に堅固である。
本稿では,統合モデリングのための空間時間スペクトル統一ネットワーク(STSUN)について紹介する。
STSUNは任意の空間サイズ、時間長、スペクトル帯域で入力および出力データに適応することができる。
様々な密集した予測タスクと多様な意味クラス予測を統一する。
論文 参考訳(メタデータ) (2025-05-18T07:39:17Z) - Rethinking Irregular Time Series Forecasting: A Simple yet Effective Baseline [12.66709671516384]
本稿では,汎用的で効率的な予測フレームワークであるAPNを紹介する。
APNの中核には、新しい Time-Aware Patch Aggregation (ATAPA) モジュールがある。
パッチ表現をタイムアウェアな重み付けで計算し、すべての生の観察を集約する。
このアプローチは、人工的なデータポイントの導入を回避し、設計による完全な情報カバレッジを確保することによって、データの忠実性を維持する。
論文 参考訳(メタデータ) (2025-05-16T13:42:00Z) - Detecting Training Data of Large Language Models via Expectation Maximization [62.28028046993391]
本稿では,予測最大化アルゴリズムを用いて,メンバーシップスコアとプレフィックススコアを反復的に洗練する新しいメンバーシップ推論手法EM-MIAを紹介する。
EM-MIAはWikiMIAで最先端の結果を得る。
論文 参考訳(メタデータ) (2024-10-10T03:31:16Z) - PeFAD: A Parameter-Efficient Federated Framework for Time Series Anomaly Detection [51.20479454379662]
私たちはaを提案します。
フェデレートされた異常検出フレームワークであるPeFADは、プライバシーの懸念が高まっている。
我々は、4つの実際のデータセットに対して広範な評価を行い、PeFADは既存の最先端ベースラインを最大28.74%上回っている。
論文 参考訳(メタデータ) (2024-06-04T13:51:08Z) - SARN: Structurally-Aware Recurrent Network for Spatio-Temporal Disaggregation [8.636014676778682]
オープンデータは、通常プライバシーポリシーに従うために、しばしば空間的に集約される。しかし、粗い、異質な集約は、下流のAI/MLシステムに対する一貫性のある学習と統合を複雑にする。
本稿では,空間的注意層をGRU(Gated Recurrent Unit)モデルに統合したSARN(Structurely-Aware Recurrent Network)を提案する。
履歴学習データに制限のあるシナリオでは、ある都市変数に事前学習したモデルを、数百のサンプルのみを用いて、他の都市変数に対して微調整できることを示す。
論文 参考訳(メタデータ) (2023-06-09T21:01:29Z) - Transform-Equivariant Consistency Learning for Temporal Sentence
Grounding [66.10949751429781]
ビデオ毎により差別的な表現を学習するために,新しい同変一貫性規則学習フレームワークを導入する。
私たちのモチベーションは、クエリ誘導アクティビティの時間的境界を一貫して予測することにある。
特に,ビデオの完全性と滑らか性を高めるために,自己教師付き一貫性損失モジュールを考案した。
論文 参考訳(メタデータ) (2023-05-06T19:29:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。