論文の概要: "Money makes the world go around'': Identifying Barriers to Better
Privacy in Children's Apps From Developers' Perspectives
- arxiv url: http://arxiv.org/abs/2111.14596v1
- Date: Mon, 29 Nov 2021 15:27:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-06 09:43:34.715736
- Title: "Money makes the world go around'': Identifying Barriers to Better
Privacy in Children's Apps From Developers' Perspectives
- Title(参考訳): money makes the world go around': 開発者の視点から子どものアプリにおけるプライバシー向上のための障壁を特定する
- Authors: Anirudh Ekambaranathan and Jun Zhao and Max Van Kleek
- Abstract要約: 子ども向けアプリの業界は、子供のプライバシーを犠牲にして成長している。
これらのアプリは、子供のデータを複数のデータトラッカーや広告ネットワークに定期的に開示する。
私たちは、なぜこれが起きているのか、どのように開発者がプラクティスを変えるのかを調査するために、混合メソッドのアプローチを使用しました。
- 参考スコア(独自算出の注目度): 28.40988446675355
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The industry for children's apps is thriving at the cost of children's
privacy: these apps routinely disclose children's data to multiple data
trackers and ad networks. As children spend increasing time online, such
exposure accumulates to long-term privacy risks. In this paper, we used a
mixed-methods approach to investigate why this is happening and how developers
might change their practices. We base our analysis against 5 leading data
protection frameworks that set out requirements and recommendations for data
collection in children's apps. To understand developers' perspectives and
constraints, we conducted 134 surveys and 20 semi-structured interviews with
popular Android children's app developers. Our analysis revealed that
developers largely respect children's best interests; however, they have to
make compromises due to limited monetisation options, perceived harmlessness of
certain third-party libraries, and lack of availability of design guidelines.
We identified concrete approaches and directions for future research to help
overcome these barriers.
- Abstract(参考訳): 子どものアプリ業界は、子供のプライバシーを犠牲にして成長している。これらのアプリは、子供のデータを複数のデータトラッカーや広告ネットワークに定期的に開示する。
子どもたちがオンラインで過ごす時間が増えると、そのような露出は長期的なプライバシーリスクに蓄積される。
本稿では、混合手法を用いて、なぜこれが起きているのか、どのように開発者がプラクティスを変えるのかを調査した。
子どものアプリにおけるデータ収集の要件と推奨を設定する5つの主要なデータ保護フレームワークに対して分析を行った。
開発者の視点と制約を理解するために,134件の調査と,人気のandroidチルドレンアプリ開発者に対する20の半構造化インタビューを実施した。
分析の結果、開発者は子供の利益をほとんど尊重していることが明らかとなった。しかし、限られた収益化オプション、特定のサードパーティライブラリの無害感、設計ガイドラインの欠如など、妥協を迫られている。
これらの障壁を克服するための具体的なアプローチと今後の研究の方向性を特定した。
関連論文リスト
- A Large-Scale Privacy Assessment of Android Third-Party SDKs [17.245330733308375]
サードパーティのソフトウェア開発キット(SDK)は、Androidアプリ開発で広く採用されている。
この利便性は、ユーザのプライバシに敏感な情報への不正アクセスに関するかなりの懸念を引き起こす。
当社の研究では,AndroidサードパーティSDK間のユーザプライバシ保護を対象とする分析を行っている。
論文 参考訳(メタデータ) (2024-09-16T15:44:43Z) - PrivacyLens: Evaluating Privacy Norm Awareness of Language Models in Action [54.11479432110771]
PrivacyLensは、プライバシに敏感な種子を表現的なヴィグネットに拡張し、さらにエージェントの軌跡に拡張するために設計された新しいフレームワークである。
プライバシの文献とクラウドソーシングされたシードに基づいて、プライバシの規範のコレクションをインスタンス化する。
GPT-4やLlama-3-70Bのような最先端のLMは、プライバシー強化の指示が出されたとしても、機密情報を25.68%、38.69%のケースでリークしている。
論文 参考訳(メタデータ) (2024-08-29T17:58:38Z) - The Good and The Bad: Exploring Privacy Issues in Retrieval-Augmented
Generation (RAG) [56.67603627046346]
Retrieval-augmented Generation (RAG)は、プロプライエタリおよびプライベートデータによる言語モデルを容易にする強力な技術である。
本研究では,プライベート検索データベースの漏洩に対するRAGシステムの脆弱性を実証する,新たな攻撃手法による実証的研究を行う。
論文 参考訳(メタデータ) (2024-02-23T18:35:15Z) - User Interaction Data in Apps: Comparing Policy Claims to
Implementations [0.0]
我々は、ポリシークレームとデータ収集手法の整合性を評価するために、静的解析手法を用いて、さまざまなカテゴリにまたがるトップ100アプリを分析した。
我々の調査結果は、データ収集における透明性の欠如と、それに伴う再識別のリスクを強調し、ユーザのプライバシと信頼に関する懸念を高めている。
論文 参考訳(メタデータ) (2023-12-05T12:11:11Z) - Rethinking People Analytics With Inverse Transparency by Design [57.67333075002697]
我々は、デザインによる逆透過性(inverse transparency)と呼ぶ、労働分析のための新しい設計手法を提案する。
アーキテクチャの変更はコア機能を阻害することなく行われます。
我々は、デザインによる逆透明性は、受け入れられ、責任ある人々の分析を実現するための有望なアプローチである、と結論付けている。
論文 参考訳(メタデータ) (2023-05-16T21:37:35Z) - On the conformance of Android applications with children's data
protection regulations and safeguarding guidelines [3.8029070240258687]
子ども向けのアプリでさえ、法律やガイダンスに従わない。
このコンプライアンスの欠如は、身体的または精神的な危害を引き起こす道を作るのに寄与する。
論文 参考訳(メタデータ) (2023-05-15T09:46:56Z) - Protecting User Privacy in Online Settings via Supervised Learning [69.38374877559423]
我々は、教師付き学習を活用する、オンラインプライバシ保護に対するインテリジェントなアプローチを設計する。
ユーザのプライバシを侵害する可能性のあるデータ収集を検出してブロックすることにより、ユーザに対してある程度のディジタルプライバシを復元することが可能になります。
論文 参考訳(メタデータ) (2023-04-06T05:20:16Z) - On the Privacy of Mental Health Apps: An Empirical Investigation and its
Implications for Apps Development [14.113922276394588]
本稿では、メンタルヘルスアプリに組み込まれたデータのプライバシーを体系的に識別し、理解することを目的とした実証的研究を報告する。
われわれはGoogle Play Storeのトップランクのメンタルヘルスアプリ27件を分析した。
この発見は、不必要なパーミッション、セキュアでない暗号実装、ログやWebリクエストにおける個人情報や資格情報の漏洩など、重要なデータプライバシの問題を明らかにする。
論文 参考訳(メタデータ) (2022-01-22T09:23:56Z) - Analysis of Longitudinal Changes in Privacy Behavior of Android
Applications [79.71330613821037]
本稿では,プライバシに関して,Androidアプリが時間とともにどのように変化してきたかを検討する。
HTTPSの採用、アプリが他のインストール済みアプリのデバイスをスキャンするかどうか、プライバシに敏感なデータに対するパーミッションの使用、ユニークな識別子の使用について検討する。
アプリがアップデートを受け続けるにつれて、プライバシ関連の振る舞いは時間とともに改善され、アプリによって使用されるサードパーティライブラリが、プライバシに関するより多くの問題に責任を負っていることが分かっています。
論文 参考訳(メタデータ) (2021-12-28T16:21:31Z) - SkillBot: Identifying Risky Content for Children in Alexa Skills [4.465104643266321]
子どもたちはVPAの豊富な機能から恩恵を受けるが、VPAエコシステムの新たなリスクにさらされる。
VPAアプリと自動的に対話する自然言語処理ベースのシステムを構築している。
危険コンテンツを持つ28の子供指向アプリを特定し、重複しないアプリの振る舞いのデータセットを31,966個増加させています。
論文 参考訳(メタデータ) (2021-02-05T19:07:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。