論文の概要: Privacy of Autonomous Vehicles: Risks, Protection Methods, and Future
Directions
- arxiv url: http://arxiv.org/abs/2209.04022v1
- Date: Thu, 8 Sep 2022 20:16:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-12 12:40:16.268502
- Title: Privacy of Autonomous Vehicles: Risks, Protection Methods, and Future
Directions
- Title(参考訳): 自動運転車のプライバシー:リスク、保護方法、今後の方向性
- Authors: Chulin Xie, Zhong Cao, Yunhui Long, Diange Yang, Ding Zhao, Bo Li
- Abstract要約: AVのプライバシーリスクと保護方法のための新しい分類法を提供する。
AVのプライバシーは、個人、人口、プロプライエタリの3つのレベルに分類されます。
- 参考スコア(独自算出の注目度): 23.778855805039438
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advances in machine learning have enabled its wide application in
different domains, and one of the most exciting applications is autonomous
vehicles (AVs), which have encouraged the development of a number of ML
algorithms from perception to prediction to planning. However, training AVs
usually requires a large amount of training data collected from different
driving environments (e.g., cities) as well as different types of personal
information (e.g., working hours and routes). Such collected large data,
treated as the new oil for ML in the data-centric AI era, usually contains a
large amount of privacy-sensitive information which is hard to remove or even
audit. Although existing privacy protection approaches have achieved certain
theoretical and empirical success, there is still a gap when applying them to
real-world applications such as autonomous vehicles. For instance, when
training AVs, not only can individually identifiable information reveal
privacy-sensitive information, but also population-level information such as
road construction within a city, and proprietary-level commercial secrets of
AVs. Thus, it is critical to revisit the frontier of privacy risks and
corresponding protection approaches in AVs to bridge this gap. Following this
goal, in this work, we provide a new taxonomy for privacy risks and protection
methods in AVs, and we categorize privacy in AVs into three levels: individual,
population, and proprietary. We explicitly list out recent challenges to
protect each of these levels of privacy, summarize existing solutions to these
challenges, discuss the lessons and conclusions, and provide potential future
directions and opportunities for both researchers and practitioners. We believe
this work will help to shape the privacy research in AV and guide the privacy
protection technology design.
- Abstract(参考訳): 機械学習の最近の進歩により、さまざまな分野への幅広い応用が可能となり、最もエキサイティングな応用の1つは自動運転車(AV)であり、多くのMLアルゴリズムの開発を知覚から予測、計画まで促進してきた。
しかし、トレーニングAVは、通常、異なる運転環境(例えば都市)と異なる種類の個人情報(例えば労働時間やルート)から収集された大量のトレーニングデータを必要とする。
こうした収集された大規模なデータは、データ中心のAI時代にMLの新しいオイルとして扱われ、通常、削除や監査が難しい大量のプライバシーに敏感な情報を含んでいる。
既存のプライバシー保護アプローチは、ある理論的および実証的な成功を達成しているが、自動運転車のような現実のアプリケーションに適用する際はまだギャップがある。
例えば、AVを訓練する際、個別に識別できる情報は、プライバシーに敏感な情報だけでなく、都市内の道路建設やAVのプロプライエタリレベルの商業秘密といった人口レベルの情報も明らかにする。
したがって、このギャップを埋めるために、プライバシーリスクとそれに対応するAVの保護アプローチのフロンティアを再考することが重要である。
この目標に従って、我々は、AVにおけるプライバシーリスクと保護方法の新しい分類法を提供し、AVにおけるプライバシーを、個人、人口、プロプライエタリの3つのレベルに分類する。
我々は、これらのレベルのプライバシーを保護する最近の課題を明示的にリストアップし、これらの課題に対する既存のソリューションを要約し、教訓と結論について議論し、研究者と実践者の両方に将来の方向性と機会を提供する。
この取り組みは、AVにおけるプライバシー研究を形作り、プライバシ保護技術設計の指針になると考えています。
関連論文リスト
- Progress in Privacy Protection: A Review of Privacy Preserving
Techniques in Recommender Systems, Edge Computing, and Cloud Computing [2.9158689853305693]
この調査は、モバイルクラウドソーシング、エッジコンピューティング、レコメンデーションシステムといった分野に焦点を当てている。
プライバシとデータセキュリティに特に重点を置いて、これらの相互接続領域における最新のトレンドを探求している。
論文 参考訳(メタデータ) (2024-01-20T19:32:56Z) - Can LLMs Keep a Secret? Testing Privacy Implications of Language Models
via Contextual Integrity Theory [86.8514623654506]
私たちは、最も有能なAIモデルでさえ、人間がそれぞれ39%と57%の確率で、プライベートな情報を公開していることを示しています。
我々の研究は、推論と心の理論に基づいて、新しい推論時プライバシー保護アプローチを即時に探求する必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2023-10-27T04:15:30Z) - Can Language Models be Instructed to Protect Personal Information? [30.187731765653428]
シミュレーションシナリオにおいて、モデルが特定の個人情報のカテゴリを保護するように指示されたとき、プライバシ/ユーティリティトレードオフを評価するためのベンチマークであるPrivQAを紹介します。
我々は,テキストや画像入力による単純なジェイルブレイク手法により,敵が容易にこれらの保護を回避できることを見出した。
PrivQAは、プライバシー保護を改善した新しいモデルの開発と、これらの保護の敵意的な堅牢性をサポートする可能性があると考えています。
論文 参考訳(メタデータ) (2023-10-03T17:30:33Z) - A Unified View of Differentially Private Deep Generative Modeling [60.72161965018005]
プライバシー上の懸念のあるデータには、データアクセスとデータ共有を頻繁に禁止する厳格な規制が伴う。
これらの障害を克服することは、プライバシーに敏感なデータを含む多くの現実世界のアプリケーションシナリオにおいて、技術的進歩の鍵となる。
差分的プライベート(DP)データパブリッシングは、データの衛生化された形式のみを公開する、魅力的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-09-27T14:38:16Z) - TeD-SPAD: Temporal Distinctiveness for Self-supervised
Privacy-preservation for video Anomaly Detection [59.04634695294402]
人間の監視のないビデオ異常検出(VAD)は複雑なコンピュータビジョンタスクである。
VADのプライバシー漏洩により、モデルは人々の個人情報に関連する不必要なバイアスを拾い上げ、増幅することができる。
本稿では,視覚的プライベート情報を自己管理的に破壊する,プライバシーに配慮したビデオ異常検出フレームワークTeD-SPADを提案する。
論文 参考訳(メタデータ) (2023-08-21T22:42:55Z) - Considerations for Differentially Private Learning with Large-Scale
Public Pretraining [58.75893136929649]
大規模なWebスクレイプデータセットの使用は、差分プライバシ保存と見なすべきかどうかを疑問視する。
Webデータ上で事前訓練されたこれらのモデルを“プライベート”として公開することで、市民のプライバシーに対する信頼を意味のあるプライバシの定義として損なう可能性があることを警告します。
公的な事前学習がより普及し、強力になるにつれて、私的な学習分野への道のりを議論することで、我々は結論づける。
論文 参考訳(メタデータ) (2022-12-13T10:41:12Z) - A Survey on Differential Privacy with Machine Learning and Future
Outlook [0.0]
差分プライバシーは、あらゆる攻撃や脆弱性から機械学習モデルを保護するために使用される。
本稿では,2つのカテゴリに分類される差分プライベート機械学習アルゴリズムについて述べる。
論文 参考訳(メタデータ) (2022-11-19T14:20:53Z) - Privacy and Robustness in Federated Learning: Attacks and Defenses [74.62641494122988]
このトピックに関する最初の包括的な調査を実施します。
FLの概念の簡潔な紹介と、1脅威モデル、2堅牢性に対する中毒攻撃と防御、3プライバシーに対する推論攻撃と防御、というユニークな分類学を通じて、私たちはこの重要なトピックのアクセス可能なレビューを提供します。
論文 参考訳(メタデータ) (2020-12-07T12:11:45Z) - More Than Privacy: Applying Differential Privacy in Key Areas of
Artificial Intelligence [62.3133247463974]
差分プライバシーは、AIのプライバシー保護以上のことができることを示す。
また、セキュリティを改善し、学習を安定させ、公正なモデルを構築し、AIの選択領域にコンポジションを課すためにも使用できる。
論文 参考訳(メタデータ) (2020-08-05T03:07:36Z) - Privacy in Deep Learning: A Survey [16.278779275923448]
多くの分野でのディープラーニングの継続的な進歩は、プロダクションシステムにDeep Neural Networks(DNN)の採用につながっている。
大規模なデータセットと高い計算能力がこれらの進歩の主な貢献者である。
このデータはさまざまな脆弱性によって誤用または漏洩される可能性があるため、プライバシー上の深刻な懸念が生じる。
論文 参考訳(メタデータ) (2020-04-25T23:47:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。