論文の概要: Covert Surveillance in Smart Devices: A SCOUR Framework Analysis of Youth Privacy Implications
- arxiv url: http://arxiv.org/abs/2510.24072v1
- Date: Tue, 28 Oct 2025 05:10:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-29 15:35:36.790562
- Title: Covert Surveillance in Smart Devices: A SCOUR Framework Analysis of Youth Privacy Implications
- Title(参考訳): スマートデバイスにおけるカバーサーベイランス:青年のプライバシ含意に関するSCOURフレームワーク分析
- Authors: Austin Shouli, Yulia Bobkova, Ajay Kumar Shrestha,
- Abstract要約: 発見によると、スマートデバイスは、特に若者向けに作られたスマートおもちゃや音声で起動するスマートガジェットで、個人情報を隠蔽している。
これらの問題は、不明瞭なデータ収集のプラクティスと、スマートデバイスアプリケーションにおける透明性の欠如によって悪化している。
発見は、ポリシー開発と、スマートデバイスのデータ収集の透明性に重大な影響を及ぼす。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper investigates how smart devices covertly capture private conversations and discusses in more in-depth the implications of this for youth privacy. Using a structured review guided by the PRISMA methodology, the analysis focuses on privacy concerns, data capture methods, data storage and sharing practices, and proposed technical mitigations. To structure and synthesize findings, we introduce the SCOUR framework, encompassing Surveillance mechanisms, Consent and awareness, Operational data flow, Usage and exploitation, and Regulatory and technical safeguards. Findings reveal that smart devices have been covertly capturing personal data, especially with smart toys and voice-activated smart gadgets built for youth. These issues are worsened by unclear data collection practices and insufficient transparency in smart device applications. Balancing privacy and utility in smart devices is crucial, as youth are becoming more aware of privacy breaches and value their personal data more. Strategies to improve regulatory and technical safeguards are also provided. The review identifies research gaps and suggests future directions. The limitations of this literature review are also explained. The findings have significant implications for policy development and the transparency of data collection for smart devices.
- Abstract(参考訳): 本稿では、スマートデバイスがプライベートな会話を秘密裏に捉え、若者のプライバシーにこのことがもたらす影響についてより深く考察する。
PRISMA方法論によってガイドされた構造化されたレビューを使用して、分析はプライバシの懸念、データキャプチャ方法、データストレージと共有のプラクティス、そして提案された技術的緩和に焦点を当てる。
結果を構造化・合成するために,SCOURフレームワークを導入し,サーベイランス機構,コンセントとアウェアネス,運用データフロー,使用と利用,規制および技術安全を包含する。
発見によると、スマートデバイスは、特に若者向けに作られたスマートおもちゃや音声で起動するスマートガジェットで、個人情報を隠蔽している。
これらの問題は、不明瞭なデータ収集のプラクティスと、スマートデバイスアプリケーションにおける透明性の欠如によって悪化している。
スマートデバイスにおけるプライバシーとユーティリティのバランスをとることが重要だ。
規制と技術的保護を改善するための戦略も提供される。
このレビューは研究のギャップを特定し、今後の方向性を示唆している。
この文献レビューの限界も説明されている。
この発見は、ポリシー開発と、スマートデバイスのデータ収集の透明性に重大な影響を及ぼす。
関連論文リスト
- Adversary-Aware Private Inference over Wireless Channels [51.93574339176914]
ワイヤレスエッジデバイスにおけるAIベースのセンシングは、人工知能(AI)アプリケーションを大幅に強化する可能性がある。
機密性の高い個人情報は敵によって再構築できるため、プライバシー侵害のリスクを軽減するために特徴の変換が必要である。
本稿では,デバイスがモデルサーバに送信する前に抽出した特徴の変換を適用する,プライバシ保護型AIベースセンシングのための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2025-10-23T13:02:14Z) - The Landscape of Memorization in LLMs: Mechanisms, Measurement, and Mitigation [97.0658685969199]
大規模言語モデル(LLM)は、幅広いタスクにわたって顕著な能力を示してきたが、トレーニングデータの記憶も示している。
本稿では,最近の研究成果を整理し,記憶の景観,その影響要因,その検出・緩和方法について考察する。
論文 参考訳(メタデータ) (2025-07-08T01:30:46Z) - Differential Privacy in Machine Learning: From Symbolic AI to LLMs [49.1574468325115]
差別化プライバシは、プライバシーリスクを軽減するための正式なフレームワークを提供する。
単一のデータポイントの包含や除外がアルゴリズムの出力を著しく変更しないことを保証する。
論文 参考訳(メタデータ) (2025-06-13T11:30:35Z) - Navigating AI to Unpack Youth Privacy Concerns: An In-Depth Exploration and Systematic Review [0.0]
この体系的な文献レビューは、人工知能(AI)システムにおけるプライバシーに関する若いデジタル市民の認識、関心、期待について調査する。
データ抽出は、プライバシの懸念、データ共有のプラクティス、プライバシとユーティリティのバランス、AIの信頼要因、個人データのユーザコントロールを強化する戦略に焦点を当てている。
発見は、個人情報のコントロールの欠如、AIによるデータの誤用の可能性、データ漏洩や不正アクセスの恐れなど、若いユーザーの間で重要なプライバシー上の懸念を浮き彫りにしている。
論文 参考訳(メタデータ) (2024-12-20T22:00:06Z) - Collection, usage and privacy of mobility data in the enterprise and public administrations [55.2480439325792]
個人のプライバシーを守るためには、匿名化などのセキュリティ対策が必要である。
本研究では,現場における実践の洞察を得るために,専門家によるインタビューを行った。
我々は、一般的には最先端の差分プライバシー基準に準拠しない、使用中のプライバシー強化手法を調査した。
論文 参考訳(メタデータ) (2024-07-04T08:29:27Z) - A Narrative Review of Identity, Data, and Location Privacy Techniques in Edge Computing and Mobile Crowdsourcing [2.5944208050492183]
このレビューは、モバイルクラウドソーシングとエッジコンピューティングにおけるプライバシ保護の必要性に焦点を当てている。
我々は、プライバシ保護技術、アイデンティティ、データ、位置情報のプライバシーに関する洞察と強調を提示する。
このレビューでは、研究者、業界専門家、政策立案者にとって有用な情報源となる可能性についても論じる。
論文 参考訳(メタデータ) (2024-01-20T19:32:56Z) - Privacy-Preserving Data in IoT-based Cloud Systems: A Comprehensive Survey with AI Integration [0.0]
本調査では,IoTとクラウドシステムの動的交点におけるプライバシ問題の状況について,慎重に調査する。
包括的な文献レビューは、既存の研究を合成し、鍵となる課題を照明し、プライバシー保護技術の新たなトレンドを識別する。
論文 参考訳(メタデータ) (2024-01-01T15:48:39Z) - A Unified View of Differentially Private Deep Generative Modeling [60.72161965018005]
プライバシー上の懸念のあるデータには、データアクセスとデータ共有を頻繁に禁止する厳格な規制が伴う。
これらの障害を克服することは、プライバシーに敏感なデータを含む多くの現実世界のアプリケーションシナリオにおいて、技術的進歩の鍵となる。
差分的プライベート(DP)データパブリッシングは、データの衛生化された形式のみを公開する、魅力的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-09-27T14:38:16Z) - A Study of the Landscape of Privacy Policies of Smart Devices [1.2642388972233845]
本稿では,スマートデバイスのプライバシポリシの展望を包括的に研究する。
我々は,スマートデバイスのユニークな課題に対処する方法論を紹介し,それらに関する情報,製造者,およびWeb上のプライバシポリシを探索する。
全体として、スマートデバイス4,556台、メーカー2,211台、プライバシーポリシー819台を分析した。
論文 参考訳(メタデータ) (2023-08-11T00:52:31Z) - Distributed Machine Learning and the Semblance of Trust [66.1227776348216]
フェデレートラーニング(FL)により、データ所有者はデータを共有することなく、データガバナンスを維持し、モデルトレーニングをローカルで行うことができる。
FLと関連する技術は、しばしばプライバシー保護と表現される。
この用語が適切でない理由を説明し、プライバシの形式的定義を念頭に設計されていないプロトコルに対する過度な信頼に関連するリスクを概説する。
論文 参考訳(メタデータ) (2021-12-21T08:44:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。