論文の概要: "These cameras are just like the Eye of Sauron": A Sociotechnical Threat Model for AI-Driven Smart Home Devices as Perceived by UK-Based Domestic Workers
- arxiv url: http://arxiv.org/abs/2602.09239v1
- Date: Mon, 09 Feb 2026 22:08:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-11 20:17:43.265533
- Title: "These cameras are just like the Eye of Sauron": A Sociotechnical Threat Model for AI-Driven Smart Home Devices as Perceived by UK-Based Domestic Workers
- Title(参考訳): これらのカメラはサウロンの眼に似ています」--英国拠点の家庭労働者が捉えたAI駆動型スマートホームデバイスのための社会技術的脅威モデル
- Authors: Shijing He, Yaxiong Lei, Xiao Zhan, Ruba Abu-Salma, Jose Such,
- Abstract要約: AI駆動型スマートホームデバイスの普及により、家庭労働者(DW)に新たなプライバシーリスクがもたらされた
英国在住のDW18人を対象に半構造化インタビューを行い,その経験を人間中心の脅威モデリング分析を行った。
我々は、AI分析、残留データログ、およびホールドデータフローが、参加者が直面するプライバシーリスクをいかに形作るかを示す。
- 参考スコア(独自算出の注目度): 11.890828813948183
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The growing adoption of AI-driven smart home devices has introduced new privacy risks for domestic workers (DWs), who are frequently monitored in employers' homes while also using smart devices in their own households. We conducted semi-structured interviews with 18 UK-based DWs and performed a human-centered threat modeling analysis of their experiences through the lens of Communication Privacy Management (CPM). Our findings extend existing threat models beyond abstract adversaries and single-household contexts by showing how AI analytics, residual data logs, and cross-household data flows shaped the privacy risks faced by participants. In employer-controlled homes, AI-enabled features and opaque, agency-mediated employment arrangements intensified surveillance and constrained participants' ability to negotiate privacy boundaries. In their own homes, participants had greater control as device owners but still faced challenges, including gendered administrative roles, opaque AI functionalities, and uncertainty around data retention. We synthesize these insights into a sociotechnical threat model that identifies DW agencies as institutional adversaries and maps AI-driven privacy risks across interconnected households, and we outline social and practical implications for strengthening DW privacy and agency.
- Abstract(参考訳): AI駆動のスマートホームデバイスの普及により、雇用主の家で頻繁に監視される家庭内労働者(DW)に新たなプライバシリスクがもたらされた。
英国拠点のDW18社を対象に半構造化インタビューを行い,コミュニケーションプライバシ管理(CPM)のレンズを用いて,人間中心の脅威モデリング分析を行った。
我々の発見は、AI分析、残留データログ、およびホールドデータフローが、参加者が直面するプライバシーリスクをいかに形作るかを示すことで、抽象的な敵や単一ホールドコンテキストを越えて、既存の脅威モデルを拡張しました。
雇用主が管理する家庭では、AI対応の機能と不透明で、機関が仲介する雇用協定によって監視が強化され、参加者がプライバシー境界を交渉する能力が制限された。
自分の家では、参加者はデバイスの所有者としてよりコントロールされていましたが、ジェンダー付き管理の役割、不透明なAI機能、データ保持に関する不確実性など、依然として課題に直面しています。
我々は、これらの知見を、DW機関を機関の敵とみなし、相互接続された家庭におけるAI駆動型プライバシーリスクをマップする社会技術的脅威モデルに合成し、DWプライバシとエージェンシーを強化するための社会的および実践的な意味を概説する。
関連論文リスト
- "We are not Future-ready": Understanding AI Privacy Risks and Existing Mitigation Strategies from the Perspective of AI Developers in Europe [56.1653658714305]
ヨーロッパを拠点とする25人のAI開発者を対象にインタビューを行い、ユーザ、開発者、ビジネスに最もリスクをもたらすと彼らが信じているプライバシの脅威を理解しました。
プライバシリスクの相対的なランク付けに関して、AI開発者の間ではほとんど合意が得られていないことが分かっています。
AI開発者はこれらのリスクに対処するために提案された緩和戦略を認識しているが、彼らは最小限の現実的採用を報告した。
論文 参考訳(メタデータ) (2025-10-01T13:51:33Z) - Exploring the Privacy and Security Challenges Faced by Migrant Domestic Workers in Chinese Smart Homes [5.8429164836316865]
本稿では、中国における多目的スマートホームにおける移民家庭労働者(MDW)のプライバシとセキュリティの課題について考察する。
その結果, MDW, 雇用者, 機関間の関係は, 電力不均衡が顕著であることがわかった。
中国において、特に公共空間における監視技術の広範で正規化された利用は、これらの権力不均衡を悪化させる。
論文 参考訳(メタデータ) (2025-04-02T21:49:15Z) - Transparency, Security, and Workplace Training & Awareness in the Age of Generative AI [0.0]
AI技術の進歩に伴い、倫理的考慮、透明性、データのプライバシー、そして人間の労働への影響は、イノベーションと効率の推進力と交差する。
我々の研究は、主流の精査から離れて、しばしば周辺で機能する公開アクセス可能な大規模言語モデル(LLM)を探索する。
具体的には、制限のないコミュニケーションとプライバシを中心としたプラットフォームであるGab AIを調べ、検閲なしで自由に対話できるようにします。
論文 参考訳(メタデータ) (2024-12-19T17:40:58Z) - AI Delegates with a Dual Focus: Ensuring Privacy and Strategic Self-Disclosure [40.47039082007319]
大規模言語モデル(LLM)ベースのAIデリゲートは、ユーザに代わって機能するためにますます利用されています。
プライバシーに配慮した自己開示を可能にする新しいAIデリゲートシステムを提案する。
我々のユーザー調査は、提案されたAIデリゲートがプライバシーを戦略的に保護し、多様なダイナミックなソーシャルインタラクションにおけるその利用の先駆者であることを実証している。
論文 参考訳(メタデータ) (2024-09-26T08:45:15Z) - HAICOSYSTEM: An Ecosystem for Sandboxing Safety Risks in Human-AI Interactions [95.49509269498367]
本稿では,多様な複雑な社会的相互作用におけるAIエージェントの安全性を調べるフレームワークであるHAICOSYSTEMを提案する。
私たちは7つの領域(医療、金融、教育など)にわたる92のシナリオに基づいて1840のシミュレーションを実行します。
我々の実験は、最先端のLSMは、プロプライエタリかつオープンソースの両方で、50%以上のケースで安全リスクを示すことを示した。
論文 参考訳(メタデータ) (2024-09-24T19:47:21Z) - Large Model Based Agents: State-of-the-Art, Cooperation Paradigms, Security and Privacy, and Future Trends [64.57762280003618]
近い将来、LM駆動の汎用AIエージェントが、生産タスクにおいて不可欠なツールとして機能することが予想される。
本稿では,将来のLMエージェントの自律的協調に関わるシナリオについて検討する。
論文 参考訳(メタデータ) (2024-09-22T14:09:49Z) - On the Principle of Accountability: Challenges for Smart Homes &
Cybersecurity [1.52292571922932]
この章では、データ保護ガバナンスにおける説明責任原則とその役割を紹介します。
我々は、個人データを保護するためのEU一般データ保護法(General Data Protection Law)の要件を考慮して、スマートホームにおけるサイバーセキュリティ管理の文脈における説明責任の意味に焦点を当てる。
論文 参考訳(メタデータ) (2020-06-19T09:50:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。