論文の概要: Privacy of Autonomous Vehicles: Risks, Protection Methods, and Future
Directions
- arxiv url: http://arxiv.org/abs/2209.04022v1
- Date: Thu, 8 Sep 2022 20:16:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-12 12:40:16.268502
- Title: Privacy of Autonomous Vehicles: Risks, Protection Methods, and Future
Directions
- Title(参考訳): 自動運転車のプライバシー:リスク、保護方法、今後の方向性
- Authors: Chulin Xie, Zhong Cao, Yunhui Long, Diange Yang, Ding Zhao, Bo Li
- Abstract要約: AVのプライバシーリスクと保護方法のための新しい分類法を提供する。
AVのプライバシーは、個人、人口、プロプライエタリの3つのレベルに分類されます。
- 参考スコア(独自算出の注目度): 23.778855805039438
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advances in machine learning have enabled its wide application in
different domains, and one of the most exciting applications is autonomous
vehicles (AVs), which have encouraged the development of a number of ML
algorithms from perception to prediction to planning. However, training AVs
usually requires a large amount of training data collected from different
driving environments (e.g., cities) as well as different types of personal
information (e.g., working hours and routes). Such collected large data,
treated as the new oil for ML in the data-centric AI era, usually contains a
large amount of privacy-sensitive information which is hard to remove or even
audit. Although existing privacy protection approaches have achieved certain
theoretical and empirical success, there is still a gap when applying them to
real-world applications such as autonomous vehicles. For instance, when
training AVs, not only can individually identifiable information reveal
privacy-sensitive information, but also population-level information such as
road construction within a city, and proprietary-level commercial secrets of
AVs. Thus, it is critical to revisit the frontier of privacy risks and
corresponding protection approaches in AVs to bridge this gap. Following this
goal, in this work, we provide a new taxonomy for privacy risks and protection
methods in AVs, and we categorize privacy in AVs into three levels: individual,
population, and proprietary. We explicitly list out recent challenges to
protect each of these levels of privacy, summarize existing solutions to these
challenges, discuss the lessons and conclusions, and provide potential future
directions and opportunities for both researchers and practitioners. We believe
this work will help to shape the privacy research in AV and guide the privacy
protection technology design.
- Abstract(参考訳): 機械学習の最近の進歩により、さまざまな分野への幅広い応用が可能となり、最もエキサイティングな応用の1つは自動運転車(AV)であり、多くのMLアルゴリズムの開発を知覚から予測、計画まで促進してきた。
しかし、トレーニングAVは、通常、異なる運転環境(例えば都市)と異なる種類の個人情報(例えば労働時間やルート)から収集された大量のトレーニングデータを必要とする。
こうした収集された大規模なデータは、データ中心のAI時代にMLの新しいオイルとして扱われ、通常、削除や監査が難しい大量のプライバシーに敏感な情報を含んでいる。
既存のプライバシー保護アプローチは、ある理論的および実証的な成功を達成しているが、自動運転車のような現実のアプリケーションに適用する際はまだギャップがある。
例えば、AVを訓練する際、個別に識別できる情報は、プライバシーに敏感な情報だけでなく、都市内の道路建設やAVのプロプライエタリレベルの商業秘密といった人口レベルの情報も明らかにする。
したがって、このギャップを埋めるために、プライバシーリスクとそれに対応するAVの保護アプローチのフロンティアを再考することが重要である。
この目標に従って、我々は、AVにおけるプライバシーリスクと保護方法の新しい分類法を提供し、AVにおけるプライバシーを、個人、人口、プロプライエタリの3つのレベルに分類する。
我々は、これらのレベルのプライバシーを保護する最近の課題を明示的にリストアップし、これらの課題に対する既存のソリューションを要約し、教訓と結論について議論し、研究者と実践者の両方に将来の方向性と機会を提供する。
この取り組みは、AVにおけるプライバシー研究を形作り、プライバシ保護技術設計の指針になると考えています。
関連論文リスト
- Model Inversion Attacks: A Survey of Approaches and Countermeasures [59.986922963781]
近年、新しいタイプのプライバシ攻撃であるモデル反転攻撃(MIA)は、トレーニングのためのプライベートデータの機密性を抽出することを目的としている。
この重要性にもかかわらず、総合的な概要とMIAに関する深い洞察を提供する体系的な研究が欠如している。
本調査は、攻撃と防御の両方において、最新のMIA手法を要約することを目的としている。
論文 参考訳(メタデータ) (2024-11-15T08:09:28Z) - Preserving Privacy in Large Language Models: A Survey on Current Threats and Solutions [12.451936012379319]
大規模言語モデル(LLM)は、人工知能の大幅な進歩を表し、様々な領域にまたがる応用を見つける。
トレーニングのための大規模なインターネットソースデータセットへの依存は、注目すべきプライバシー問題を引き起こす。
特定のアプリケーション固有のシナリオでは、これらのモデルをプライベートデータで微調整する必要があります。
論文 参考訳(メタデータ) (2024-08-10T05:41:19Z) - Privacy Risks of General-Purpose AI Systems: A Foundation for Investigating Practitioner Perspectives [47.17703009473386]
強力なAIモデルによって、幅広いタスクでパフォーマンスが飛躍的に向上した。
プライバシの懸念は、さまざまなプライバシのリスクとAIモデルの脆弱性をカバーした、豊富な文献につながっている。
我々はこれらの調査論文の体系的なレビューを行い、GPAISにおけるプライバシーリスクの簡潔かつ有用な概観を提供する。
論文 参考訳(メタデータ) (2024-07-02T07:49:48Z) - A Survey on Machine Unlearning: Techniques and New Emerged Privacy Risks [42.3024294376025]
機械学習は、プライバシー保護分野における研究ホットスポットである。
最近の研究者は、さまざまな機械学習アプローチの潜在的なプライバシー漏洩を発見した。
我々は、定義、実装方法、現実世界のアプリケーションなど、さまざまな面でプライバシーリスクを分析します。
論文 参考訳(メタデータ) (2024-06-10T11:31:04Z) - Work-in-Progress: Crash Course: Can (Under Attack) Autonomous Driving Beat Human Drivers? [60.51287814584477]
本稿では,現在のAVの状況を調べることによって,自律運転における本質的なリスクを評価する。
AVの利点と、現実のシナリオにおける潜在的なセキュリティ課題との微妙なバランスを強調した、特定のクレームを開発する。
論文 参考訳(メタデータ) (2024-05-14T09:42:21Z) - Privacy in Large Language Models: Attacks, Defenses and Future Directions [84.73301039987128]
大規模言語モデル(LLM)を対象とした現在のプライバシ攻撃を分析し、敵の想定能力に応じて分類する。
本稿では、これらのプライバシー攻撃に対抗するために開発された防衛戦略について概説する。
論文 参考訳(メタデータ) (2023-10-16T13:23:54Z) - Can Language Models be Instructed to Protect Personal Information? [30.187731765653428]
シミュレーションシナリオにおいて、モデルが特定の個人情報のカテゴリを保護するように指示されたとき、プライバシ/ユーティリティトレードオフを評価するためのベンチマークであるPrivQAを紹介します。
我々は,テキストや画像入力による単純なジェイルブレイク手法により,敵が容易にこれらの保護を回避できることを見出した。
PrivQAは、プライバシー保護を改善した新しいモデルの開発と、これらの保護の敵意的な堅牢性をサポートする可能性があると考えています。
論文 参考訳(メタデータ) (2023-10-03T17:30:33Z) - A Unified View of Differentially Private Deep Generative Modeling [60.72161965018005]
プライバシー上の懸念のあるデータには、データアクセスとデータ共有を頻繁に禁止する厳格な規制が伴う。
これらの障害を克服することは、プライバシーに敏感なデータを含む多くの現実世界のアプリケーションシナリオにおいて、技術的進歩の鍵となる。
差分的プライベート(DP)データパブリッシングは、データの衛生化された形式のみを公開する、魅力的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-09-27T14:38:16Z) - More Than Privacy: Applying Differential Privacy in Key Areas of
Artificial Intelligence [62.3133247463974]
差分プライバシーは、AIのプライバシー保護以上のことができることを示す。
また、セキュリティを改善し、学習を安定させ、公正なモデルを構築し、AIの選択領域にコンポジションを課すためにも使用できる。
論文 参考訳(メタデータ) (2020-08-05T03:07:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。