論文の概要: Driving Privacy Forward: Mitigating Information Leakage within Smart Vehicles through Synthetic Data Generation
- arxiv url: http://arxiv.org/abs/2410.08462v1
- Date: Fri, 11 Oct 2024 02:28:27 GMT
- ステータス: 処理完了
- システム内更新日: 2024-10-31 03:06:36.397338
- Title: Driving Privacy Forward: Mitigating Information Leakage within Smart Vehicles through Synthetic Data Generation
- Title(参考訳): プライバシを前方に進める - 合成データ生成によるスマート車内の情報漏洩の軽減
- Authors: Krish Parikh,
- Abstract要約: そこで本研究では,車内センサ14の分類法を提案し,攻撃の可能性を特定し,その脆弱性を分類する。
次に、PVS(Passive Vehicular Sensor)データセットを使用して、最も脆弱な信号に注目し、合成データを生成する。
本研究の結果から,本研究の意図を検証した結果,90.1%の統計的類似度と78%の分類精度が得られた。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Smart vehicles produce large amounts of data, much of which is sensitive and at risk of privacy breaches. As attackers increasingly exploit anonymised metadata within these datasets to profile drivers, it's important to find solutions that mitigate this information leakage without hindering innovation and ongoing research. Synthetic data has emerged as a promising tool to address these privacy concerns, as it allows for the replication of real-world data relationships while minimising the risk of revealing sensitive information. In this paper, we examine the use of synthetic data to tackle these challenges. We start by proposing a comprehensive taxonomy of 14 in-vehicle sensors, identifying potential attacks and categorising their vulnerability. We then focus on the most vulnerable signals, using the Passive Vehicular Sensor (PVS) dataset to generate synthetic data with a Tabular Variational Autoencoder (TVAE) model, which included over 1 million data points. Finally, we evaluate this against 3 core metrics: fidelity, utility, and privacy. Our results show that we achieved 90.1% statistical similarity and 78% classification accuracy when tested on its original intent while also preventing the profiling of the driver. The code can be found at https://github.com/krish-parikh/Synthetic-Data-Generation
- Abstract(参考訳): スマートカーは大量のデータを生成し、そのほとんどが機密性があり、プライバシー侵害のリスクがある。
攻撃者がこれらのデータセット内の匿名メタデータをプロファイリングドライバに活用する傾向にあるため、イノベーションや進行中の研究を妨げることなく、情報漏洩を緩和するソリューションを見つけることが重要である。
合成データは、これらのプライバシー問題に対処するための有望なツールとして登場し、現実のデータ関係の複製を可能にすると同時に、機密情報を開示するリスクを最小限にする。
本稿では,これらの課題に対処するための合成データの利用について検討する。
まず、14の車載センサーを包括的に分類し、潜在的な攻撃を特定し、その脆弱性を分類することから始めます。
次に、PVS(Passive Vehicular Sensor)データセットを使用して、100万以上のデータポイントを含むTabular Variational Autoencoder(TVAE)モデルで合成データを生成する。
最後に、これらを3つのコアメトリクス – 忠実度、ユーティリティ、プライバシ – に対して評価する。
その結果, 運転者のプロファイリングを防止しつつ, 本来の意図でテストした場合, 90.1%の統計的類似度と78%の分類精度を達成できた。
コードはhttps://github.com/krish-parikh/Synthetic-Data-Generationにある。
関連論文リスト
- Guided Diffusion Model for Sensor Data Obfuscation [4.91258288207688]
PrivDiffuserは、デノナイジング拡散モデルに基づく新しいデータ難読化手法である。
PrivDiffuserは、最先端の難読化モデルよりも優れたプライバシーとユーティリティのトレードオフをもたらすことを示す。
論文 参考訳(メタデータ) (2024-12-19T03:47:12Z) - Defining 'Good': Evaluation Framework for Synthetic Smart Meter Data [14.779917834583577]
スマートメーターデータセットのプライバシーリスクを評価するには,標準プライバシ攻撃手法が不十分であることを示す。
本稿では,トレーニングデータを不確実なアウトレーラで注入し,それらのアウトレーラに直接プライバシ攻撃を発生させる手法を提案する。
論文 参考訳(メタデータ) (2024-07-16T14:41:27Z) - Footprints of Data in a Classifier Model: The Privacy Issues and Their Mitigation through Data Obfuscation [0.9208007322096533]
トレーニングデータのフットプリントを 予測モデルに埋め込むことは
テストデータとトレーニングデータのパフォーマンス品質の違いは、モデルをトレーニングしたデータの受動的識別を引き起こす。
この研究は、データフットプリントから生じる脆弱性に対処することに焦点を当てている。
論文 参考訳(メタデータ) (2024-07-02T13:56:37Z) - Mitigating the Privacy Issues in Retrieval-Augmented Generation (RAG) via Pure Synthetic Data [51.41288763521186]
Retrieval-augmented Generation (RAG)は、外部知識ソースから取得した関連情報を統合することにより、言語モデルの出力を強化する。
RAGシステムは、プライベートデータを取得する際に深刻なプライバシーリスクに直面する可能性がある。
検索データに対するプライバシー保護の代替として,合成データを用いる方法を提案する。
論文 参考訳(メタデータ) (2024-06-20T22:53:09Z) - Generative AI for Secure and Privacy-Preserving Mobile Crowdsensing [74.58071278710896]
生成AIは、学術分野と産業分野の両方から多くの注目を集めている。
セキュアでプライバシ保護のモバイルクラウドセンシング(SPPMCS)は、データ収集/取得に広く応用されている。
論文 参考訳(メタデータ) (2024-05-17T04:00:58Z) - Autosen: improving automatic wifi human sensing through cross-modal
autoencoder [56.44764266426344]
WiFiによる人間のセンシングは、人間の活動を認識する上での低コストでプライバシー上の利点として高く評価されている。
ラベル付きデータなしで自己教師付き学習を可能にすることを目的とした従来のクロスモーダル手法は、振幅-位相の組み合わせから意味のある特徴を抽出するのに苦労する。
我々は、従来のアプローチから外れた革新的な自動WiFiセンシングソリューションであるAutoSenを紹介する。
論文 参考訳(メタデータ) (2024-01-08T19:50:02Z) - Adversarial Machine Learning-Enabled Anonymization of OpenWiFi Data [9.492736565723892]
匿名化によるデータのプライバシと保護は、他のデータの使用が期待される前にネットワークオペレータやデータ所有者にとって重要な問題である。
オープンWiFiネットワークは、データ所有者が持つ知識に関係なく、トラフィックへのアクセスや知識を得ようとする敵に対して脆弱である。
CTGANは合成データを生成する。これは実際のデータとして偽装するが、実際のデータの隠れた急性情報を促進する。
論文 参考訳(メタデータ) (2024-01-03T04:59:03Z) - The Inadequacy of Similarity-based Privacy Metrics: Privacy Attacks against "Truly Anonymous" Synthetic Datasets [12.730435519914415]
実世界の合成データデプロイメントで使用されるプライバシメトリクスを調べ、その信頼性をいくつかの点で実証する。
ReconSynは、メトリクスによってプライベートと見なされるが、個々のレコードに固有の情報をリークする複数の合成データセットを生成するリコンストラクション攻撃である。
ReconSynは列車データから78-100%のアウトレーヤを復元し、ブラックボックスアクセスのみを1つの適合した生成モデルとプライバシメトリクスに含める。
論文 参考訳(メタデータ) (2023-12-08T15:42:28Z) - A Discrepancy Aware Framework for Robust Anomaly Detection [51.710249807397695]
本稿では,DAF(Disdisrepancy Aware Framework)を提案する。
本手法は,デコーダの欠陥同定に外見に依存しないキューを利用して,その合成外観への依存を緩和する。
単純な合成戦略の下では,既存の手法を大きなマージンで上回り,また,最先端のローカライゼーション性能も達成している。
論文 参考訳(メタデータ) (2023-10-11T15:21:40Z) - Stop Uploading Test Data in Plain Text: Practical Strategies for
Mitigating Data Contamination by Evaluation Benchmarks [70.39633252935445]
データ汚染は、大規模な自動クロールコーパスで事前訓練されたモデルの台頭によって、普及し、課題となっている。
クローズドモデルの場合、トレーニングデータはトレードシークレットになり、オープンモデルであっても汚染を検出するのは簡単ではない。
1)公開するテストデータを公開鍵で暗号化し,デリバティブ配信を許可する,(2)クローズドAPI保持者からの要求トレーニング排他的コントロールを許可する,(2)評価を拒否してテストデータを保護する,(3)インターネット上のソリューションで表示されるデータを避け,インターネット由来のWebページコンテキストを解放する,という3つの方法を提案する。
論文 参考訳(メタデータ) (2023-05-17T12:23:38Z) - Membership Inference Attacks against Synthetic Data through Overfitting
Detection [84.02632160692995]
我々は、攻撃者が基礎となるデータ分布についてある程度の知識を持っていると仮定する現実的なMIA設定について論じる。
生成モデルの局所的なオーバーフィッティングをターゲットとして,メンバシップを推論することを目的とした密度ベースMIAモデルであるDOMIASを提案する。
論文 参考訳(メタデータ) (2023-02-24T11:27:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。