論文の概要: TraceHiding: Scalable Machine Unlearning for Mobility Data
- arxiv url: http://arxiv.org/abs/2509.17241v1
- Date: Sun, 21 Sep 2025 21:29:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-23 18:58:16.181483
- Title: TraceHiding: Scalable Machine Unlearning for Mobility Data
- Title(参考訳): TraceHiding: モビリティデータのためのスケーラブルマシンアンラーニング
- Authors: Ali Faraji, Manos Papagelis,
- Abstract要約: TraceHidingは、移動軌道データのためのスケーラブルで重要な機械学習フレームワークである。
トレーニングされたディープモデルから特定のユーザトラジェクトリを、フルリトレーニングなしで削除する。
非学習精度が向上し、MIAレジリエンスが向上し、リトレーニングよりも最大40倍のスピードアップを実現している。
- 参考スコア(独自算出の注目度): 1.6042394978941517
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This work introduces TraceHiding, a scalable, importance-aware machine unlearning framework for mobility trajectory data. Motivated by privacy regulations such as GDPR and CCPA granting users "the right to be forgotten," TraceHiding removes specified user trajectories from trained deep models without full retraining. It combines a hierarchical data-driven importance scoring scheme with teacher-student distillation. Importance scores--computed at token, trajectory, and user levels from statistical properties (coverage diversity, entropy, length)--quantify each training sample's impact, enabling targeted forgetting of high-impact data while preserving common patterns. The student model retains knowledge on remaining data and unlearns targeted trajectories through an importance-weighted loss that amplifies forgetting signals for unique samples and attenuates them for frequent ones. We validate on Trajectory--User Linking (TUL) tasks across three real-world higher-order mobility datasets (HO-Rome, HO-Geolife, HO-NYC) and multiple architectures (GRU, LSTM, BERT, ModernBERT, GCN-TULHOR), against strong unlearning baselines including SCRUB, NegGrad, NegGrad+, Bad-T, and Finetuning. Experiments under uniform and targeted user deletion show TraceHiding, especially its entropy-based variant, achieves superior unlearning accuracy, competitive membership inference attack (MIA) resilience, and up to 40\times speedup over retraining with minimal test accuracy loss. Results highlight robustness to adversarial deletion of high-information users and consistent performance across models. To our knowledge, this is the first systematic study of machine unlearning for trajectory data, providing a reproducible pipeline with public code and preprocessing tools.
- Abstract(参考訳): この研究は、モビリティトラジェクトリデータのためのスケーラブルで重要視される機械学習フレームワークであるTraceHidingを紹介している。
GDPRやCCPAといったプライバシ規則によって、ユーザーが「忘れられる権利」を付与されるようにモチベーションされたTraceHidingは、トレーニングされた深層モデルの特定のユーザートラジェクトリを、完全なリトレーニングなしで削除する。
これは、階層的なデータ駆動の重要度評価スキームと教師による蒸留を組み合わせたものである。
トークン、トラジェクトリ、および統計特性(カバレッジの多様性、エントロピー、長さ)から計算された重要度スコアは、各トレーニングサンプルの影響を定量化し、共通のパターンを保ちながら、高インパクトデータのターゲット的忘れを可能にする。
学生モデルは、残されているデータに関する知識を保持し、重要な重み付けされた損失を通じて対象の軌跡を解き放つことで、ユニークなサンプルの忘れた信号を増幅し、頻繁なサンプルのためにそれらを減衰させる。
我々は,SCRUB, NegGrad, NegGrad+, Bad-T, Finetuningの3つの実世界の高次モビリティデータセット(HO-Rome, HO-Geolife, HO-NYC)と複数アーキテクチャ(GRU, LSTM, BERT, ModernBERT, GCN-TULHOR)のトラジェクティブ-ユーザリンク(TUL)タスクを,SCRUB, NegGrad, NegGrad+, Bad-T, Finetuningなどの非学習ベースラインに対して検証した。
均一かつ目標とするユーザ削除実験では、特にエントロピーベースの変種であるTraceHidingが、より優れた未学習精度、競合メンバシップ推論攻撃(MIA)レジリエンスを実現し、テスト精度の損失を最小限に抑えたリトレーニングよりも最大40倍のスピードアップを実現している。
その結果、高情報ユーザの敵対的削除に対する堅牢性と、モデル間の一貫したパフォーマンスが浮き彫りになった。
我々の知る限り、これは軌道データのための機械学習に関する最初の体系的な研究であり、公開コードと前処理ツールを備えた再現可能なパイプラインを提供する。
関連論文リスト
- AdvKT: An Adversarial Multi-Step Training Framework for Knowledge Tracing [64.79967583649407]
知識追跡(KT)は、学生の知識状態を監視し、質問シーケンスに対する反応をシミュレートする。
既存のKTモデルは通常、単一ステップのトレーニングパラダイムに従っており、大きなエラーの蓄積につながる。
本稿では,多段階KTタスクに着目した新しい知識追跡のための多段階学習フレームワーク(AdvKT)を提案する。
論文 参考訳(メタデータ) (2025-04-07T03:31:57Z) - Erase then Rectify: A Training-Free Parameter Editing Approach for Cost-Effective Graph Unlearning [17.85404473268992]
グラフアンラーニングは、訓練されたグラフニューラルネットワーク(GNN)からノード、エッジ、属性の影響を排除することを目的としている。
既存のグラフアンラーニング技術は、しばしば残りのデータに対する追加のトレーニングを必要とし、かなりの計算コストをもたらす。
本稿では,2段階の学習自由アプローチであるETR(Erase then Rectify)を提案する。
論文 参考訳(メタデータ) (2024-09-25T07:20:59Z) - Towards Robust and Parameter-Efficient Knowledge Unlearning for LLMs [25.91643745340183]
大規模言語モデル(LLM)は、大量のテキストコーパスの事前学習を通じて、強い推論と記憶能力を示す。
これはプライバシーと著作権侵害のリスクを生じさせ、効率的な機械学習手法の必要性を強調している。
LLMの堅牢かつ効率的なアンラーニングを可能にする新しいフレームワークであるLoKUを提案する。
論文 参考訳(メタデータ) (2024-08-13T04:18:32Z) - Incremental Self-training for Semi-supervised Learning [56.57057576885672]
ISTは単純だが有効であり、既存の自己学習に基づく半教師あり学習手法に適合する。
提案したISTを5つのデータセットと2種類のバックボーンで検証し,認識精度と学習速度を効果的に向上させる。
論文 参考訳(メタデータ) (2024-04-14T05:02:00Z) - Partially Blinded Unlearning: Class Unlearning for Deep Networks a Bayesian Perspective [4.31734012105466]
マシン・アンラーニング(英: Machine Unlearning)とは、特定のデータセットやクラスに指定された情報を事前訓練されたモデルから選択的に破棄するプロセスである。
本研究では,事前学習した分類ネットワークから,特定の種類のデータに関連付けられた情報の目的的除去に適した手法を提案する。
本手法は,従来の最先端の未学習手法を超越し,優れた有効性を示す。
論文 参考訳(メタデータ) (2024-03-24T17:33:22Z) - Fast Machine Unlearning Without Retraining Through Selective Synaptic
Dampening [51.34904967046097]
Selective Synaptic Dampening (SSD)は高速で、訓練データの長期保存を必要としない。
高速で性能が高く,トレーニングデータの長期保存を必要としない,新しい2段階のポストホック,リトレーニングフリーなマシンアンラーニング手法を提案する。
論文 参考訳(メタデータ) (2023-08-15T11:30:45Z) - Unsupervised Noisy Tracklet Person Re-identification [100.85530419892333]
本稿では,非照合トラックレットデータから識別的人物再識別モデルを訓練できる選択的トラックレット学習(STL)手法を提案する。
これにより、カメラビュー全体で人物の画像/トラックレットの真のマッチングペアを完全にラベル付けする面倒でコストのかかるプロセスが回避されます。
提案手法は生トラックレットの任意のノイズデータに対して特に頑健であるため,制約のない追跡データから識別モデル学習にスケーラブルである。
論文 参考訳(メタデータ) (2021-01-16T07:31:00Z) - Omni-supervised Facial Expression Recognition via Distilled Data [120.11782405714234]
ネットワークトレーニングにおいて,信頼度の高いサンプルを多量のラベルのないデータで活用するためのオムニ教師付き学習を提案する。
我々は,新しいデータセットが学習したFERモデルの能力を大幅に向上させることができることを実験的に検証した。
そこで本研究では,生成したデータセットを複数のクラスワイド画像に圧縮するために,データセット蒸留戦略を適用することを提案する。
論文 参考訳(メタデータ) (2020-05-18T09:36:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。