論文の概要: Data Privacy in IoT Equipped Future Smart Homes
- arxiv url: http://arxiv.org/abs/2008.04979v1
- Date: Tue, 11 Aug 2020 19:26:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-06 13:40:32.155264
- Title: Data Privacy in IoT Equipped Future Smart Homes
- Title(参考訳): IoTを搭載した未来のスマートホームにおけるデータプライバシ
- Authors: Athar Khodabakhsh, Sule Yildirim Yayilgan
- Abstract要約: 本稿では,モノのインターネット(Internet of Things)を備えたスマートホーム環境におけるデータプライバシ要件について述べる。
データとモデルのプライバシー問題に対処する。
- 参考スコア(独自算出の注目度): 0.9442139459221784
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Smart devices are becoming inseparable from daily lives and are improving
fast for providing intelligent services and remote monitoring and control. In
order to provide personalized and customized services more personal data
collection is required. Consequently, intelligent services are becoming
intensely personal and they raise concerns regarding data privacy and security.
In this paper data privacy requirements in a smart home environment equipped
with "Internet of Things" are described and privacy challenges for data and
models are addressed.
- Abstract(参考訳): スマートデバイスは日常生活から切り離されにくくなり、インテリジェントサービスとリモート監視とコントロールを提供するために急速に改善されている。
パーソナライズされ、カスタマイズされたサービスを提供するためには、より多くの個人データ収集が必要である。
その結果、インテリジェントなサービスは極めて個人的になり、データプライバシとセキュリティに関する懸念が高まる。
本稿では,「モノのインターネット」を具備したスマートホーム環境におけるデータプライバシ要件について述べるとともに,データとモデルのプライバシ問題に対処する。
関連論文リスト
- Preserving Privacy in Large Language Models: A Survey on Current Threats and Solutions [12.451936012379319]
大規模言語モデル(LLM)は、人工知能の大幅な進歩を表し、様々な領域にまたがる応用を見つける。
トレーニングのための大規模なインターネットソースデータセットへの依存は、注目すべきプライバシー問題を引き起こす。
特定のアプリケーション固有のシナリオでは、これらのモデルをプライベートデータで微調整する必要があります。
論文 参考訳(メタデータ) (2024-08-10T05:41:19Z) - PrivacyCube: Data Physicalization for Enhancing Privacy Awareness in IoT [1.2564343689544843]
スマートホーム環境におけるプライバシー意識を高めるために設計された新しいデータ物理化であるPrivacyCubeについて説明する。
PrivacyCubeは、プライバシ関連の通知を表示することによって、IoTデータ消費を可視化する。
以上の結果から,プライバシキューブは家庭内におけるIoTプライバシの理解を向上し,プライバシ意識を著しく向上させる。
論文 参考訳(メタデータ) (2024-06-08T12:20:42Z) - Towards Privacy-Aware and Personalised Assistive Robots: A User-Centred Approach [55.5769013369398]
この研究は、フェデレートラーニング(FL)のようなユーザー中心のプライバシーに配慮した技術のパイオニアである。
FLは機密データを共有せずに協調学習を可能にし、プライバシとスケーラビリティの問題に対処する。
この作業には、スマート車椅子アシストのためのソリューションの開発、ユーザの独立性の向上、幸福感の向上が含まれる。
論文 参考訳(メタデータ) (2024-05-23T13:14:08Z) - AI-Driven Anonymization: Protecting Personal Data Privacy While
Leveraging Machine Learning [5.015409508372732]
本稿では、個人データのプライバシー保護と匿名化の促進を研究の中心的目的とする。
機械学習の差分プライバシー保護アルゴリズムを使用して、個人データのプライバシ保護と検出を実現する。
また、プライバシと個人データ保護に関連する機械学習の既存の課題に対処し、改善提案を提供し、データセットに影響を与える要因を分析して、タイムリーな個人データプライバシ検出と保護を可能にする。
論文 参考訳(メタデータ) (2024-02-27T04:12:25Z) - Data privacy for Mobility as a Service [3.6474839708864497]
モビリティ・アズ・ア・サービス(M)は、便利で効率的で統合された交通ソリューションを提供することによって、交通業界に革命をもたらしている。
ユーザデータの広範な使用と、複数のサービスプロバイダの統合は、重大なプライバシー上の懸念を引き起こす。
論文 参考訳(メタデータ) (2023-09-18T21:58:35Z) - A Survey on Privacy in Graph Neural Networks: Attacks, Preservation, and
Applications [76.88662943995641]
グラフニューラルネットワーク(GNN)は、グラフ構造化データを扱う能力のため、大きな注目を集めている。
この問題に対処するため、研究者らはプライバシー保護のGNNの開発を開始した。
この進歩にもかかわらず、攻撃の包括的概要と、グラフドメインのプライバシを保存するためのテクニックが欠如している。
論文 参考訳(メタデータ) (2023-08-31T00:31:08Z) - Privacy Explanations - A Means to End-User Trust [64.7066037969487]
この問題に対処するために、説明可能性がどのように役立つかを検討しました。
私たちはプライバシーの説明を作成し、エンドユーザの理由と特定のデータが必要な理由を明らかにするのに役立ちました。
我々の発見は、プライバシーの説明がソフトウェアシステムの信頼性を高めるための重要なステップであることを示している。
論文 参考訳(メタデータ) (2022-10-18T09:30:37Z) - Smart Home, security concerns of IoT [91.3755431537592]
IoT(モノのインターネット)は、国内環境において広く普及している。
人々は自宅をスマートホームにリニューアルしているが、インターネットに接続された多くのデバイスを常時オンの環境センサーで所有するというプライバシー上の懸念はいまだに不十分だ。
デフォルトパスワードと弱いパスワード、安価な材料とハードウェア、暗号化されていない通信は、IoTデバイスの主要な脅威と脆弱性として識別される。
論文 参考訳(メタデータ) (2020-07-06T10:36:11Z) - A vision for global privacy bridges: Technical and legal measures for
international data markets [77.34726150561087]
データ保護法とプライバシーの権利が認められているにもかかわらず、個人情報の取引は「トレーディング・オイル」と同等のビジネスになっている。
オープンな対立は、データに対するビジネスの要求とプライバシーへの欲求の間に生じている。
プライバシを備えたパーソナル情報市場のビジョンを提案し,テストする。
論文 参考訳(メタデータ) (2020-05-13T13:55:50Z) - Beyond privacy regulations: an ethical approach to data usage in
transportation [64.86110095869176]
本稿では,フェデレート機械学習を交通分野に適用する方法について述べる。
フェデレートラーニングは、ユーザのプライバシを尊重しつつ、プライバシに敏感なデータを処理可能にする方法だと考えています。
論文 参考訳(メタデータ) (2020-04-01T15:10:12Z) - PDS: Deduce Elder Privacy from Smart Homes [0.0]
本稿では,高齢者のプライバシが,ネットワーク通信が十分に保護されていないため,スマートホームから著しく漏洩する可能性があることを示す。
スマートホームからセンサトラフィックを盗み出し,攻撃者の視点からの一連の推論に基づいて,高齢者の移動行動を特定し,スマートホーム内のセンサ位置を推測することにより,プライバシ・ドダクション・スキーム(PDS)を開発する。
論文 参考訳(メタデータ) (2020-01-21T13:55:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。