論文の概要: A Human-Centered Privacy Approach (HCP) to AI
- arxiv url: http://arxiv.org/abs/2602.04616v1
- Date: Wed, 04 Feb 2026 14:43:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-05 19:45:11.575805
- Title: A Human-Centered Privacy Approach (HCP) to AI
- Title(参考訳): AIに対するHCP(Human-Centered Privacy Approach)
- Authors: Luyi Sun, Wei Xu, Zaifeng Gao,
- Abstract要約: この章は、Human-Centered AI(HCAI)におけるプライバシーに関する包括的な概要を提供する。
技術、倫理、ヒューマンファクタの観点から統合されたソリューションを提供する、人間中心のプライバシーフレームワークを提案する。
- 参考スコア(独自算出の注目度): 6.711851881543851
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: As the paradigm of Human-Centered AI (HCAI) gains prominence, its benefits to society are accompanied by significant ethical concerns, one of which is the protection of individual privacy. This chapter provides a comprehensive overview of privacy within HCAI, proposing a human-centered privacy (HCP) framework, providing integrated solution from technology, ethics, and human factors perspectives. The chapter begins by mapping privacy risks across each stage of AI development lifecycle, from data collection to deployment and reuse, highlighting the impact of privacy risks on the entire system. The chapter then introduces privacy-preserving techniques such as federated learning and dif erential privacy. Subsequent chapters integrate the crucial user perspective by examining mental models, alongside the evolving regulatory and ethical landscapes as well as privacy governance. Next, advice on design guidelines is provided based on the human-centered privacy framework. After that, we introduce practical case studies across diverse fields. Finally, the chapter discusses persistent open challenges and future research directions, concluding that a multidisciplinary approach, merging technical, design, policy, and ethical expertise, is essential to successfully embed privacy into the core of HCAI, thereby ensuring these technologies advance in a manner that respects and ensures human autonomy, trust and dignity.
- Abstract(参考訳): 人間中心型AI(HCAI)のパラダイムが有名になるにつれて、社会に対するその利益には重大な倫理的懸念が伴い、そのうちの1つは個人のプライバシ保護である。
この章は、HCAI内のプライバシーに関する包括的な概要を提供し、ヒューマン中心のプライバシ(HCP)フレームワークを提案し、技術、倫理、ヒューマンファクターの観点から統合されたソリューションを提供する。
この章は、データ収集からデプロイメント、再利用に至るまで、AI開発ライフサイクルの各段階におけるプライバシリスクのマッピングから始まり、システム全体に対するプライバシリスクの影響を強調している。
この章では、フェデレーションラーニングやディフ・アージェンシャル・プライバシといったプライバシ保護技術を紹介している。
その後の章では、精神モデルを調べることで重要なユーザ視点と、進化する規制と倫理の状況、およびプライバシガバナンスを統合する。
次に、人間中心のプライバシフレームワークに基づいて、デザインガイドラインに関するアドバイスを提供する。
その後,様々な分野のケーススタディを紹介した。
最後に、この章は永続的なオープンな課題と将来の研究方向性について論じ、技術、設計、政策、倫理的な専門知識を融合させる多分野的なアプローチは、HCAIのコアにプライバシーを埋め込むのに不可欠である、と結論付け、これらの技術が人間の自律性、信頼、尊厳を尊重し、確実にする方法で前進することを確実にする。
関連論文リスト
- Towards Privacy-aware Mental Health AI Models: Advances, Challenges, and Opportunities [58.61680631581921]
メンタルヘルス障害は、深い個人的・社会的負担を生じさせるが、従来の診断はリソース集約的でアクセシビリティが制限される。
本稿では、これらの課題を考察し、匿名化、合成データ、プライバシー保護トレーニングを含む解決策を提案する。
臨床的な意思決定をサポートし、メンタルヘルスの結果を改善する、信頼できるプライバシを意識したAIツールを進化させることを目標としている。
論文 参考訳(メタデータ) (2025-02-01T15:10:02Z) - Toward Ethical AI: A Qualitative Analysis of Stakeholder Perspectives [0.0]
この研究は、AIシステムのプライバシーに関するステークホルダーの視点を探求し、教育者、親、AI専門家に焦点をあてる。
この研究は、227人の参加者による調査回答の質的分析を用いて、データ漏洩、倫理的誤用、過剰なデータ収集を含む主要なプライバシーリスクを特定する。
この調査結果は、堅牢なプライバシ保護とAIのメリットのバランスに関する実用的な洞察を提供する。
論文 参考訳(メタデータ) (2025-01-23T02:06:25Z) - Differential Privacy Overview and Fundamental Techniques [63.0409690498569]
この章は、"Differential Privacy in Artificial Intelligence: From Theory to Practice"という本の一部である。
まず、データのプライバシ保護のためのさまざまな試みについて説明し、その失敗の場所と理由を強調した。
次に、プライバシ保護データ分析の領域を構成する重要なアクター、タスク、スコープを定義する。
論文 参考訳(メタデータ) (2024-11-07T13:52:11Z) - Privacy Risks of General-Purpose AI Systems: A Foundation for Investigating Practitioner Perspectives [47.17703009473386]
強力なAIモデルによって、幅広いタスクでパフォーマンスが飛躍的に向上した。
プライバシの懸念は、さまざまなプライバシのリスクとAIモデルの脆弱性をカバーした、豊富な文献につながっている。
我々はこれらの調査論文の体系的なレビューを行い、GPAISにおけるプライバシーリスクの簡潔かつ有用な概観を提供する。
論文 参考訳(メタデータ) (2024-07-02T07:49:48Z) - Centering Policy and Practice: Research Gaps around Usable Differential Privacy [12.340264479496375]
我々は、差分プライバシーは理論上はクリーンな定式化であるが、実際は重大な課題を提起していると論じている。
差分プライバシーの約束と現実世界のユーザビリティのギャップを埋めるために、研究者と実践者は協力しなければなりません。
論文 参考訳(メタデータ) (2024-06-17T21:32:30Z) - Privacy in Foundation Models: A Conceptual Framework for System Design [3.438211531047665]
ファンデーションモデルは、大きな課題と素晴らしい機会の両方を示します。
現在、プライバシー評価プロセスが包含すべき技術的問題と非技術的問題の両方の包括的範囲について合意が得られていない。
本稿では、複数の視点から様々な責任あるAIパターンを統合する新しい概念的枠組みを紹介する。
論文 参考訳(メタデータ) (2023-11-13T00:44:06Z) - Ethics and Responsible AI Deployment [1.3597551064547502]
この記事では、倫理基準に準拠しながら個人のプライバシーを保護する倫理的AIシステムの必要性について論じる。
研究は、差分プライバシー、同型暗号化、連合学習、国際規制フレームワーク、倫理ガイドラインなどの革新的なアルゴリズム技術について検討している。
論文 参考訳(メタデータ) (2023-11-12T13:32:46Z) - A Unified View of Differentially Private Deep Generative Modeling [60.72161965018005]
プライバシー上の懸念のあるデータには、データアクセスとデータ共有を頻繁に禁止する厳格な規制が伴う。
これらの障害を克服することは、プライバシーに敏感なデータを含む多くの現実世界のアプリケーションシナリオにおいて、技術的進歩の鍵となる。
差分的プライベート(DP)データパブリッシングは、データの衛生化された形式のみを公開する、魅力的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-09-27T14:38:16Z) - Advancing Differential Privacy: Where We Are Now and Future Directions for Real-World Deployment [100.1798289103163]
差分プライバシ(DP)分野における現状と現状の方法論の詳細なレビューを行う。
論文のポイントとハイレベルな内容は,「認知プライバシ(DP:次のフロンティアへの挑戦)」の議論から生まれた。
この記事では、プライバシの領域におけるアルゴリズムおよび設計決定の基準点を提供することを目標とし、重要な課題と潜在的研究の方向性を強調します。
論文 参考訳(メタデータ) (2023-04-14T05:29:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。