論文の概要: Machine Unlearning of Traffic State Estimation and Prediction
- arxiv url: http://arxiv.org/abs/2507.17984v1
- Date: Wed, 23 Jul 2025 23:23:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-25 15:10:42.650843
- Title: Machine Unlearning of Traffic State Estimation and Prediction
- Title(参考訳): 交通状態の予測と予測の機械学習
- Authors: Xin Wang, R. Tyrrell Rockafellar, Xuegang, Ban,
- Abstract要約: 本研究では,TSEP-Machine Unlearning TSEPの新しい学習パラダイムを提案する。
トレーニングされたTSEPモデルでは、プライバシに敏感な、有毒な、あるいは時代遅れなデータを選択的に忘れることができる。
データ駆動トラフィックTSEPの信頼性と信頼性を高めることを目的としている。
- 参考スコア(独自算出の注目度): 4.442043151145212
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Data-driven traffic state estimation and prediction (TSEP) relies heavily on data sources that contain sensitive information. While the abundance of data has fueled significant breakthroughs, particularly in machine learning-based methods, it also raises concerns regarding privacy, cybersecurity, and data freshness. These issues can erode public trust in intelligent transportation systems. Recently, regulations have introduced the "right to be forgotten", allowing users to request the removal of their private data from models. As machine learning models can remember old data, simply removing it from back-end databases is insufficient in such systems. To address these challenges, this study introduces a novel learning paradigm for TSEP-Machine Unlearning TSEP-which enables a trained TSEP model to selectively forget privacy-sensitive, poisoned, or outdated data. By empowering models to "unlearn," we aim to enhance the trustworthiness and reliability of data-driven traffic TSEP.
- Abstract(参考訳): データ駆動型トラフィック状態推定および予測(TSEP)は、機密情報を含むデータソースに大きく依存する。
データの豊富さは、特に機械学習ベースの手法において大きなブレークスルーをもたらしたが、プライバシ、サイバーセキュリティ、データの鮮度に関する懸念も高めている。
これらの問題は、インテリジェント交通システムに対する公衆の信頼を損なう可能性がある。
最近、規制は「忘れられる権利」を導入し、ユーザーはモデルからプライベートデータの削除を要求するようになった。
機械学習モデルは古いデータを記憶できるため、バックエンドデータベースから削除するだけでは、そのようなシステムでは不十分である。
これらの課題に対処するために、TSEP-Machine Unlearning TSEPの新たな学習パラダイムを導入し、トレーニングされたTSEPモデルにより、プライバシに敏感な、有毒な、あるいは時代遅れなデータを選択的に忘れることを可能にする。
データ駆動トラフィックTSEPの信頼性と信頼性を高めることを目的としている。
関連論文リスト
- Privacy Preservation through Practical Machine Unlearning [0.0]
本稿では,SISAフレームワークを用いたNative RetrainingやExact Unlearningなどの手法について検討する。
部分的にラベル付けされたデータセットがもたらす課題に対処するために、未学習の原則をPositive Unlabeled (PU) Learningに統合する可能性を探る。
論文 参考訳(メタデータ) (2025-02-15T02:25:27Z) - Learn while Unlearn: An Iterative Unlearning Framework for Generative Language Models [52.03511469562013]
3つのコアコンポーネントで構成されるICU(Iterative Contrastive Unlearning)フレームワークを紹介する。
知識未学習誘導モジュールは、未学習の損失を使用して、特定の知識を除去するためにターゲットとする。
Contrastive Learning Enhancementモジュールは、純粋な未学習の目標に対してモデルの表現力を保持する。
イテレーティブ・アンラーニング・リファインメントモジュールは、進行中の評価と更新を通じて、アンラーニングプロセスを動的に調整する。
論文 参考訳(メタデータ) (2024-07-25T07:09:35Z) - Releasing Malevolence from Benevolence: The Menace of Benign Data on Machine Unlearning [28.35038726318893]
大量の実データや合成データに基づいてトレーニングされた機械学習モデルは、様々な領域で優れた予測性能を達成する。
プライバシの懸念に対処するため、モデルから特定のデータサンプルを削除するために、機械学習が提案されている。
本研究では,データ配信情報を少量の良質なデータ集合に抽出するために,Unlearning Usability Attackを導入する。
論文 参考訳(メタデータ) (2024-07-06T15:42:28Z) - Ungeneralizable Examples [70.76487163068109]
学習不能なデータを作成するための現在のアプローチには、小さくて特殊なノイズが組み込まれている。
学習不能データの概念を条件付きデータ学習に拡張し、textbfUntextbf Generalizable textbfExamples (UGEs)を導入する。
UGEは認証されたユーザに対して学習性を示しながら、潜在的なハッカーに対する非学習性を維持している。
論文 参考訳(メタデータ) (2024-04-22T09:29:14Z) - The Frontier of Data Erasure: Machine Unlearning for Large Language Models [56.26002631481726]
大規模言語モデル(LLM)はAIの進歩の基礎となっている。
LLMは機密情報、偏見情報、著作権情報を記憶し、広めることによってリスクを生じさせる。
機械学習は、これらの懸念を軽減するための最先端のソリューションとして現れます。
論文 参考訳(メタデータ) (2024-03-23T09:26:15Z) - Fast Machine Unlearning Without Retraining Through Selective Synaptic
Dampening [51.34904967046097]
Selective Synaptic Dampening (SSD)は高速で、訓練データの長期保存を必要としない。
高速で性能が高く,トレーニングデータの長期保存を必要としない,新しい2段階のポストホック,リトレーニングフリーなマシンアンラーニング手法を提案する。
論文 参考訳(メタデータ) (2023-08-15T11:30:45Z) - Certified Data Removal in Sum-Product Networks [78.27542864367821]
収集したデータの削除は、データのプライバシを保証するのに不十分であることが多い。
UnlearnSPNは、訓練された総生産ネットワークから単一データポイントの影響を取り除くアルゴリズムである。
論文 参考訳(メタデータ) (2022-10-04T08:22:37Z) - A Survey of Machine Unlearning [56.017968863854186]
最近の規制では、要求に応じて、ユーザに関する個人情報をコンピュータシステムから削除する必要がある。
MLモデルは古いデータをよく記憶します。
機械学習に関する最近の研究は、この問題を完全に解決することはできなかった。
論文 参考訳(メタデータ) (2022-09-06T08:51:53Z) - Machine unlearning via GAN [2.406359246841227]
機械学習モデル、特にディープラーニングモデルは、トレーニングデータに関する情報を意図せずに記憶することができる。
本稿では,深層モデルにおけるデータ削除のためのGANアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-11-22T05:28:57Z) - Privacy Enhancing Machine Learning via Removal of Unwanted Dependencies [21.97951347784442]
本稿では,特定のアプリケーションに送信される前に,データ中のセンシティブな情報を除去する,教師付き・敵対型学習手法の新たな変種について検討する。
提案手法は,エンド・ツー・エンド方式で特徴マッピングと予測モデルを同時に保存するプライバシー保護を最適化する。
モバイルセンシングと顔データを用いた実験結果から,予測モデルの実用性能の維持に成功し,予測性能の低下を招いた。
論文 参考訳(メタデータ) (2020-07-30T19:55:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。