論文の概要: Investigating the Privacy Risk of Using Robot Vacuum Cleaners in Smart Environments
- arxiv url: http://arxiv.org/abs/2407.18433v1
- Date: Fri, 26 Jul 2024 00:00:53 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-29 14:49:32.066224
- Title: Investigating the Privacy Risk of Using Robot Vacuum Cleaners in Smart Environments
- Title(参考訳): スマート環境におけるロボット掃除機のプライバシーリスク調査
- Authors: Benjamin Ulsmaag, Jia-Chun Lin, Ming-Chang Lee,
- Abstract要約: 本稿では,ネットワークヘッダメタデータを用いた個人情報公開の可能性について検討する。
一般的なロボット掃除機は、受動的ネットワークの盗聴を行う実際のスマート環境に配備された。
また,アソシエーションルール学習に基づく分析により,取得したインターネットトラフィックメタデータのみを用いて,特定の事象を特定することが可能であることを実証した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Robot vacuum cleaners have become increasingly popular and are widely used in various smart environments. To improve user convenience, manufacturers also introduced smartphone applications that enable users to customize cleaning settings or access information about their robot vacuum cleaners. While this integration enhances the interaction between users and their robot vacuum cleaners, it results in potential privacy concerns because users' personal information may be exposed. To address these concerns, end-to-end encryption is implemented between the application, cloud service, and robot vacuum cleaners to secure the exchanged information. Nevertheless, network header metadata remains unencrypted and it is still vulnerable to network eavesdropping. In this paper, we investigate the potential risk of private information exposure through such metadata. A popular robot vacuum cleaner was deployed in a real smart environment where passive network eavesdropping was conducted during several selected cleaning events. Our extensive analysis, based on Association Rule Learning, demonstrates that it is feasible to identify certain events using only the captured Internet traffic metadata, thereby potentially exposing private user information and raising privacy concerns.
- Abstract(参考訳): ロボット掃除機はますます普及し、様々なスマートな環境で広く使われている。
消費者の利便性を高めるために、メーカーはスマートフォンアプリケーションを導入し、ユーザーは掃除設定をカスタマイズしたり、ロボット掃除機に関する情報にアクセスしたりできる。
この統合は、ユーザとロボット掃除機間のインタラクションを強化するが、ユーザの個人情報が暴露される可能性があるため、潜在的なプライバシー上の懸念をもたらす。
これらの問題に対処するため、アプリケーション、クラウドサービス、ロボット掃除機間でエンドツーエンドの暗号化を実装し、交換された情報を保護する。
それでも、ネットワークヘッダメタデータは暗号化されておらず、ネットワークの盗聴に対して脆弱である。
本稿では,このようなメタデータを用いた個人情報公開の可能性について検討する。
ロボット掃除機として人気の高いロボット掃除機は、いくつかの選抜された掃除イベント中に受動的ネットワークの盗聴を行うリアルなスマートな環境に展開された。
アソシエーション・ルール・ラーニングをベースとした広範な分析により、取得したインターネットトラフィックメタデータのみを使用して特定のイベントを特定でき、それによってプライベートなユーザー情報を公開する可能性があり、プライバシーの懸念が高まる可能性が示された。
関連論文リスト
- Privacy-Preserving Deep Learning Using Deformable Operators for Secure Task Learning [14.187385349716518]
既存のプライバシー保護方法は、画像暗号化や知覚変換アプローチに依存している。
安全なタスク学習に変形可能な演算子の集合を用いる新しいプライバシ保存フレームワークを提案する。
論文 参考訳(メタデータ) (2024-04-08T19:46:20Z) - Privacy-preserving Optics for Enhancing Protection in Face De-identification [60.110274007388135]
この脆弱性を解決するために,ハードウェアレベルの顔識別手法を提案する。
また、プライバシ保存画像、フェイスヒートマップ、およびパブリックデータセットからの参照顔イメージを入力として、新しい顔を生成する匿名化フレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-31T19:28:04Z) - Protecting User Privacy in Online Settings via Supervised Learning [69.38374877559423]
我々は、教師付き学習を活用する、オンラインプライバシ保護に対するインテリジェントなアプローチを設計する。
ユーザのプライバシを侵害する可能性のあるデータ収集を検出してブロックすることにより、ユーザに対してある程度のディジタルプライバシを復元することが可能になります。
論文 参考訳(メタデータ) (2023-04-06T05:20:16Z) - Towards a User Privacy-Aware Mobile Gaming App Installation Prediction
Model [0.8602553195689513]
本研究では,モバイルゲームアプリのインストールを需要側プラットフォームの観点から予測するプロセスについて検討する。
プライバシ保護とモデルパフォーマンスのトレードオフについて検討する。
プライバシーを意識したモデルは依然として重要な能力を保っていると結論付けている。
論文 参考訳(メタデータ) (2023-02-07T09:14:59Z) - Position: Considerations for Differentially Private Learning with Large-Scale Public Pretraining [75.25943383604266]
大規模なWebスクレイプデータセットの使用は、差分プライバシ保存と見なすべきかどうかを疑問視する。
Webデータ上で事前訓練されたこれらのモデルを“プライベート”として公開することで、市民のプライバシーに対する信頼を意味のあるプライバシの定義として損なう可能性があることを警告します。
公的な事前学習がより普及し、強力になるにつれて、私的な学習分野への道のりを議論することで、我々は結論づける。
論文 参考訳(メタデータ) (2022-12-13T10:41:12Z) - Privacy Explanations - A Means to End-User Trust [64.7066037969487]
この問題に対処するために、説明可能性がどのように役立つかを検討しました。
私たちはプライバシーの説明を作成し、エンドユーザの理由と特定のデータが必要な理由を明らかにするのに役立ちました。
我々の発見は、プライバシーの説明がソフトウェアシステムの信頼性を高めるための重要なステップであることを示している。
論文 参考訳(メタデータ) (2022-10-18T09:30:37Z) - Cross-Network Social User Embedding with Hybrid Differential Privacy
Guarantees [81.6471440778355]
プライバシー保護方式でユーザを包括的に表現するために,ネットワーク横断型ソーシャルユーザ埋め込みフレームワークDP-CroSUEを提案する。
特に、各異種ソーシャルネットワークに対して、異種データ型に対するプライバシー期待の変化を捉えるために、まずハイブリッドな差分プライバシーの概念を導入する。
ユーザ埋め込みをさらに強化するため、新しいネットワーク間GCN埋め込みモデルは、それらの整列したユーザを介して、ネットワーク間で知識を伝達するように設計されている。
論文 参考訳(メタデータ) (2022-09-04T06:22:37Z) - A GAN-based Approach for Mitigating Inference Attacks in Smart Home
Environment [3.785123406103385]
本研究では,スマートホーム利用者をスパイしている敵が,機械学習技術を用いてセンシティブな情報を推測する問題について検討する。
スマートホームにおけるプライバシー保護のためのGAN(Generative Adrial Network)に基づくアプローチを提案する。
論文 参考訳(メタデータ) (2020-11-13T02:14:32Z) - More Than Privacy: Applying Differential Privacy in Key Areas of
Artificial Intelligence [62.3133247463974]
差分プライバシーは、AIのプライバシー保護以上のことができることを示す。
また、セキュリティを改善し、学習を安定させ、公正なモデルを構築し、AIの選択領域にコンポジションを課すためにも使用できる。
論文 参考訳(メタデータ) (2020-08-05T03:07:36Z) - Privacy Adversarial Network: Representation Learning for Mobile Data
Privacy [33.75500773909694]
モバイルユーザのためのクラウドベースのインテリジェントサービスの増加は、プロバイダに送信するユーザデータを要求している。
以前の作業では、例えばノイズを追加して識別情報を削除したり、匿名化された特徴などのデータから抽出された表現を送信したりするといった、データの難読化が行われていた。
私たちは、敵対的な学習を活用して、プライバシとユーティリティのバランスを改善する。
論文 参考訳(メタデータ) (2020-06-08T09:42:04Z) - DYSAN: Dynamically sanitizing motion sensor data against sensitive
inferences through adversarial networks [0.0]
DySanは、望ましくない機密推論に対してモーションセンサーデータを正当化するためのプライバシー保護フレームワークである。
複数のネットワークを競合的に学習することで、DySanは特定の機密属性の推論に対して動作データを衛生化するモデルを構築することができる。
実際のデータセットで行った実験では、DySanは活動認識の精度を3%減らしながら、性別推定を47%まで劇的に減らすことができた。
論文 参考訳(メタデータ) (2020-03-23T15:16:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。