論文の概要: A Privacy by Design Framework for Large Language Model-Based Applications for Children
- arxiv url: http://arxiv.org/abs/2602.17418v1
- Date: Thu, 19 Feb 2026 14:50:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-20 15:21:29.102455
- Title: A Privacy by Design Framework for Large Language Model-Based Applications for Children
- Title(参考訳): 子ども向け大規模言語モデルベースアプリケーションのためのプライバシ・バイ・デザイン・フレームワーク
- Authors: Diana Addae, Diana Rogachova, Nafiseh Kahani, Masoud Barati, Michael Christensen, Chen Zhou,
- Abstract要約: 子どもたちはAIを利用したテクノロジーをますます利用している。
特に子供のプライバシーリスクに対する懸念が高まっている。
本稿ではプライバシ・デザイン(PbD)アプローチに基づくフレームワークを提案する。
- 参考スコア(独自算出の注目度): 1.3146378832730206
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Children are increasingly using technologies powered by Artificial Intelligence (AI). However, there are growing concerns about privacy risks, particularly for children. Although existing privacy regulations require companies and organizations to implement protections, doing so can be challenging in practice. To address this challenge, this article proposes a framework based on Privacy-by-Design (PbD), which guides designers and developers to take on a proactive and risk-averse approach to technology design. Our framework includes principles from several privacy regulations, such as the General Data Protection Regulation (GDPR) from the European Union, the Personal Information Protection and Electronic Documents Act (PIPEDA) from Canada, and the Children's Online Privacy Protection Act (COPPA) from the United States. We map these principles to various stages of applications that use Large Language Models (LLMs), including data collection, model training, operational monitoring, and ongoing validation. For each stage, we discuss the operational controls found in the recent academic literature to help AI service providers and developers reduce privacy risks while meeting legal standards. In addition, the framework includes design guidelines for children, drawing from the United Nations Convention on the Rights of the Child (UNCRC), the UK's Age-Appropriate Design Code (AADC), and recent academic research. To demonstrate how this framework can be applied in practice, we present a case study of an LLM-based educational tutor for children under 13. Through our analysis and the case study, we show that by using data protection strategies such as technical and organizational controls and making age-appropriate design decisions throughout the LLM life cycle, we can support the development of AI applications for children that provide privacy protections and comply with legal requirements.
- Abstract(参考訳): 子どもたちは人工知能(AI)を利用した技術の利用が増えている。
しかし、プライバシーリスク、特に子供に対する懸念が高まっている。
既存のプライバシー規制では、企業や組織が保護を実装する必要があるが、実際に実施することは困難である。
この課題に対処するため、この記事ではプライバシ・バイ・デザイン(PbD)に基づくフレームワークを提案する。
私たちのフレームワークには、欧州連合(EU)の一般データ保護規則(GDPR)、カナダからの個人情報保護電子文書法(PIPEDA)、米国からの児童オンラインプライバシー保護法(COPPA)など、いくつかのプライバシー規制の原則が含まれています。
これらの原則を,データ収集やモデルトレーニング,運用監視,進行中の検証など,LLM(Large Language Models)を使用するアプリケーションのさまざまな段階にマッピングする。
各段階について、近年の学術文献で見られる運用管理について論じ、AIサービスプロバイダや開発者が法的基準を満たしながらプライバシーリスクを低減できるようにする。
このフレームワークには、子どもの権利に関する国連条約(UNCRC)、イギリスの年齢適応設計法(AADC)、最近の学術研究など、子供のためのデザインガイドラインが含まれている。
13歳未満の子どもを対象としたLLMベースの教育指導を事例として,この枠組みの実践例を示す。
分析とケーススタディを通じて,LLMのライフサイクル全体を通じて,技術および組織制御などのデータ保護戦略を用いて,年齢に応じた設計決定を行うことで,プライバシー保護と法的要件に従う子ども向けのAIアプリケーションの開発を支援することができることを示す。
関連論文リスト
- Toward Youth-Centered Privacy-by-Design in Smart Devices: A Systematic Review [0.0]
この文献は、AI対応スマートデバイスにおける若者を保護するために、プライバシ・バイ・デザインのフレームワーク、ツール、ポリシーを評価する。
デバイス上での処理、フェデレーション付き学習、軽量暗号化といった技術的な介入は、データ露出を大幅に減少させるが、採用は限定的である。
論文 参考訳(メタデータ) (2026-01-07T21:17:53Z) - Bridging the Mobile Trust Gap: A Zero Trust Framework for Consumer-Facing Applications [51.56484100374058]
本稿では,信頼できないユーザ制御環境で動作するモバイルアプリケーションを対象としたZero Trustモデルを提案する。
デザインサイエンスの方法論を用いて、この研究は、実行時の信頼の強制をサポートする6つのピラーフレームワークを導入した。
提案したモデルは,デプロイ前コントロールを越えてモバイルアプリケーションをセキュアにするための,実用的で標準に準拠したアプローチを提供する。
論文 参考訳(メタデータ) (2025-08-20T18:42:36Z) - Towards an Enforceable GDPR Specification [49.1574468325115]
プライバシ・バイ・デザイン(PbD)は、EUなどの現代的なプライバシー規制によって規定されている。
PbDを実現する1つの新しい技術は強制(RE)である
法律規定の正式な仕様を作成するための一連の要件と反復的な方法論を提示する。
論文 参考訳(メタデータ) (2024-02-27T09:38:51Z) - PrivacyMind: Large Language Models Can Be Contextual Privacy Protection Learners [81.571305826793]
コンテキストプライバシ保護言語モデル(PrivacyMind)を紹介する。
我々の研究はモデル設計に関する理論的分析を提供し、様々な手法をベンチマークする。
特に、肯定的な例と否定的な例の両方による命令チューニングは、有望な方法である。
論文 参考訳(メタデータ) (2023-10-03T22:37:01Z) - Security for Children in the Digital Society -- A Rights-based and
Research Ethics Approach [0.0]
このプロジェクトは、人工知能の開発のためのヨーロッパのフレームワークと、アルゴリズムによるオンラインコミュニケーションの過程で生じるセキュリティリスクから子どもを守ることに焦点を当てた、ドイツの状況にある。
このプロジェクトは、子どもの安全に関する質問に対する子どもの権利に関するアプローチをオンラインで開発すると同時に、児童に対するサイバーグルームや性的暴力などのオンライン被害について、子どもたちと研究を行うための研究倫理的アプローチも開発している。
論文 参考訳(メタデータ) (2023-08-24T08:13:02Z) - On the conformance of Android applications with children's data
protection regulations and safeguarding guidelines [3.8029070240258687]
子ども向けのアプリでさえ、法律やガイダンスに従わない。
このコンプライアンスの欠如は、身体的または精神的な危害を引き起こす道を作るのに寄与する。
論文 参考訳(メタデータ) (2023-05-15T09:46:56Z) - Advancing Differential Privacy: Where We Are Now and Future Directions for Real-World Deployment [100.1798289103163]
差分プライバシ(DP)分野における現状と現状の方法論の詳細なレビューを行う。
論文のポイントとハイレベルな内容は,「認知プライバシ(DP:次のフロンティアへの挑戦)」の議論から生まれた。
この記事では、プライバシの領域におけるアルゴリズムおよび設計決定の基準点を提供することを目標とし、重要な課題と潜在的研究の方向性を強調します。
論文 参考訳(メタデータ) (2023-04-14T05:29:18Z) - PLUE: Language Understanding Evaluation Benchmark for Privacy Policies
in English [77.79102359580702]
プライバシポリシ言語理解評価ベンチマークは,プライバシポリシ言語理解を評価するマルチタスクベンチマークである。
また、プライバシポリシの大規模なコーパスを収集し、プライバシポリシドメイン固有の言語モデル事前トレーニングを可能にします。
ドメイン固有の連続的な事前トレーニングは、すべてのタスクでパフォーマンスを改善することを実証します。
論文 参考訳(メタデータ) (2022-12-20T05:58:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。