論文の概要: "Is it always watching? Is it always listening?" Exploring Contextual Privacy and Security Concerns Toward Domestic Social Robots
- arxiv url: http://arxiv.org/abs/2507.10786v1
- Date: Mon, 14 Jul 2025 20:27:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-16 19:46:02.879122
- Title: "Is it always watching? Is it always listening?" Exploring Contextual Privacy and Security Concerns Toward Domestic Social Robots
- Title(参考訳): 「いつも見ているの?いつも聞いているの?」 : 家庭型社会ロボットに向けてのコンテキストプライバシとセキュリティ問題を探る
- Authors: Henry Bell, Jabari Kwesi, Hiba Laabadli, Pardis Emami-Naeini,
- Abstract要約: 社会ロボットは米国の消費者の間で関心を集めている。
リスクの増加には、データリンク、不正なデータ共有、ユーザとその家の物理的安全性などがある。
私たちは、透明性、ユーザビリティ、堅牢なプライバシコントロールの必要性を強調しながら、重要なセキュリティとプライバシに関する懸念を特定しました。
- 参考スコア(独自算出の注目度): 4.191809055412282
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Equipped with artificial intelligence (AI) and advanced sensing capabilities, social robots are gaining interest among consumers in the United States. These robots seem like a natural evolution of traditional smart home devices. However, their extensive data collection capabilities, anthropomorphic features, and capacity to interact with their environment make social robots a more significant security and privacy threat. Increased risks include data linkage, unauthorized data sharing, and the physical safety of users and their homes. It is critical to investigate U.S. users' security and privacy needs and concerns to guide the design of social robots while these devices are still in the early stages of commercialization in the U.S. market. Through 19 semi-structured interviews, we identified significant security and privacy concerns, highlighting the need for transparency, usability, and robust privacy controls to support adoption. For educational applications, participants worried most about misinformation, and in medical use cases, they worried about the reliability of these devices. Participants were also concerned with the data inference that social robots could enable. We found that participants expect tangible privacy controls, indicators of data collection, and context-appropriate functionality.
- Abstract(参考訳): 人工知能(AI)と高度なセンシング機能を備えた社会ロボットは、米国の消費者の間で注目を集めている。
これらのロボットは、従来のスマートホームデバイスの自然な進化のようだ。
しかし、その広範なデータ収集能力、人為的特徴、環境と対話する能力によって、社会ロボットはより重要なセキュリティとプライバシーの脅威となる。
リスクの増加には、データリンク、不正なデータ共有、ユーザとその家の物理的安全性などがある。
これらのデバイスは、米国市場での商業化の初期段階にある間、社会ロボットの設計を導くために、米国のユーザーのセキュリティとプライバシーのニーズと関心を調査することが重要である。
19回の半構造化インタビューを通じて、重要なセキュリティとプライバシに関する懸念を特定し、採用をサポートするための透明性、ユーザビリティ、堅牢なプライバシコントロールの必要性を強調しました。
教育応用においては、参加者は誤報を最も心配し、医療現場ではこれらの機器の信頼性を心配した。
参加者は、ソーシャルロボットが実現可能なデータ推論にも関心を持っていた。
参加者は、具体的なプライバシーコントロール、データ収集の指標、コンテキストに適した機能を期待している。
関連論文リスト
- A roadmap for AI in robotics [55.87087746398059]
AIの可能性を生かして、私たちの日常生活にロボットを配備する上での、際立った障壁に取り組みたいと考えています。
この記事では、1990年代からロボット工学におけるAIが達成したことを評価し、課題と約束を列挙した短期的・中期的な研究ロードマップを提案する。
論文 参考訳(メタデータ) (2025-07-26T15:18:28Z) - Benchmarking LLM Privacy Recognition for Social Robot Decision Making [15.763528324946005]
ソーシャルロボット(Social Robot)は、人間のコミュニケーション規範に従って人間と対話するエンボディエージェントである。
本研究では,家庭社会ロボットの文脈において,既成のLLMがどの程度プライバシに意識されているかを検討する。
論文 参考訳(メタデータ) (2025-07-22T00:36:59Z) - Understanding Users' Security and Privacy Concerns and Attitudes Towards Conversational AI Platforms [3.789219860006095]
r/ChatGPT Redditコミュニティから250万以上のユーザ投稿を大規模に分析して、ユーザのセキュリティとプライバシに関する懸念を理解する。
データライフサイクルの各ステージ(すなわち、収集、使用、保持など)にユーザが関心を持っていることが分かりました。
透明性を高め、データコントロールを改善し、ユーザの信頼と採用を高めるために、ユーザ、プラットフォーム、企業、および政策立案者にレコメンデーションを提供します。
論文 参考訳(メタデータ) (2025-04-09T03:22:48Z) - Smoke Screens and Scapegoats: The Reality of General Data Protection Regulation Compliance -- Privacy and Ethics in the Case of Replika AI [1.325665193924634]
本稿では,AIコンパニオンサービスにおけるこれらの課題の複雑さを検討するために,批判的なアプローチをとる。
当社は、企業とその実践に関するメディアの記事を分析し、ポリシーで提供された情報の信頼性に関する洞察を得る。
その結果、プライバシーの通知にもかかわらず、データ収集のプラクティスはユーザーの完全な認識なしに個人データを収集する可能性があることが判明した。
論文 参考訳(メタデータ) (2024-11-07T07:36:19Z) - Towards Privacy-Aware and Personalised Assistive Robots: A User-Centred Approach [55.5769013369398]
この研究は、フェデレートラーニング(FL)のようなユーザー中心のプライバシーに配慮した技術のパイオニアである。
FLは機密データを共有せずに協調学習を可能にし、プライバシとスケーラビリティの問題に対処する。
この作業には、スマート車椅子アシストのためのソリューションの開発、ユーザの独立性の向上、幸福感の向上が含まれる。
論文 参考訳(メタデータ) (2024-05-23T13:14:08Z) - Embedding Privacy in Computational Social Science and Artificial Intelligence Research [2.048226951354646]
プライバシーの保護は研究の重要な要素として浮上している。
高度な計算モデルの利用の増加は、プライバシーの懸念を悪化させる。
この記事では、プライバシの役割と、CSS、AI、データサイエンス、および関連するドメインで働く研究者が直面する問題について議論することによって、この分野に貢献する。
論文 参考訳(メタデータ) (2024-04-17T16:07:53Z) - Privacy-preserving Optics for Enhancing Protection in Face De-identification [60.110274007388135]
この脆弱性を解決するために,ハードウェアレベルの顔識別手法を提案する。
また、プライバシ保存画像、フェイスヒートマップ、およびパブリックデータセットからの参照顔イメージを入力として、新しい顔を生成する匿名化フレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-31T19:28:04Z) - Common (good) practices measuring trust in HRI [55.2480439325792]
ロボットへの信頼は、人々の日常生活にロボットを取り入れるのに欠かせないと広く信じられている。
研究者たちは、人々がロボットをさまざまな方法で信頼する方法を模索してきた。
ほとんどのロボティクス学者は、信頼のレベルが不足すると解脱のリスクが生じることに同意する。
論文 参考訳(メタデータ) (2023-11-20T20:52:10Z) - SACSoN: Scalable Autonomous Control for Social Navigation [62.59274275261392]
我々は、社会的に邪魔にならないナビゲーションのための政策の訓練方法を開発した。
この反事実的摂動を最小化することにより、共有空間における人間の自然な振る舞いを変えない方法でロボットに行動を促すことができる。
屋内移動ロボットが人間の傍観者と対話する大規模なデータセットを収集する。
論文 参考訳(メタデータ) (2023-06-02T19:07:52Z) - Socially Compliant Navigation Dataset (SCAND): A Large-Scale Dataset of
Demonstrations for Social Navigation [92.66286342108934]
社会ナビゲーションは、ロボットのような自律的なエージェントが、人間のような他の知的エージェントの存在下で、社会的に従順な方法でナビゲートする能力である。
私たちのデータセットには8.7時間、128の軌道、25マイルの社会的に適合した人間の遠隔運転デモが含まれています。
論文 参考訳(メタデータ) (2022-03-28T19:09:11Z) - More Than Privacy: Applying Differential Privacy in Key Areas of
Artificial Intelligence [62.3133247463974]
差分プライバシーは、AIのプライバシー保護以上のことができることを示す。
また、セキュリティを改善し、学習を安定させ、公正なモデルを構築し、AIの選択領域にコンポジションを課すためにも使用できる。
論文 参考訳(メタデータ) (2020-08-05T03:07:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。