論文の概要: Privacy Ethics Alignment in AI (PEA-AI): A Stakeholder-Centric Based Framework for Ethcial AI
- arxiv url: http://arxiv.org/abs/2503.11950v1
- Date: Sat, 15 Mar 2025 01:42:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-18 16:00:28.186968
- Title: Privacy Ethics Alignment in AI (PEA-AI): A Stakeholder-Centric Based Framework for Ethcial AI
- Title(参考訳): AI(PEA-AI)におけるプライバシ倫理アライメント
- Authors: Ankur Barthwal, Molly Campbell, Ajay Kumar Shrestha,
- Abstract要約: 本研究は,3つの主要な利害関係者グループ間でのプライバシー上の懸念の進展について検討する。
若いユーザーは自律性とデジタルの自由を強調する。
親と教育者は、規制監督とAIリテラシープログラムを提唱する。
AI専門家は倫理システム設計と技術効率のバランスを優先する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: The increasing integration of Artificial Intelligence (AI) in digital ecosystems has reshaped privacy dynamics, particularly for young digital citizens navigating data-driven environments. This study explores evolving privacy concerns across three key stakeholder groups, digital citizens (ages 16-19), parents, educators, and AI professionals, and assesses differences in data ownership, trust, transparency, parental mediation, education, and risk-benefit perceptions. Employing a grounded theory methodology, this research synthesizes insights from 482 participants through structured surveys, qualitative interviews, and focus groups. The findings reveal distinct privacy expectations- Young users emphasize autonomy and digital freedom, while parents and educators advocate for regulatory oversight and AI literacy programs. AI professionals, in contrast, prioritize the balance between ethical system design and technological efficiency. The data further highlights gaps in AI literacy and transparency, emphasizing the need for comprehensive, stakeholder-driven privacy frameworks that accommodate diverse user needs. Using comparative thematic analysis, this study identifies key tensions in privacy governance and develops the novel Privacy-Ethics Alignment in AI (PEA-AI) model, which structures privacy decision-making as a dynamic negotiation between stakeholders. By systematically analyzing themes such as transparency, user control, risk perception, and parental mediation, this research provides a scalable, adaptive foundation for AI governance, ensuring that privacy protections evolve alongside emerging AI technologies and youth-centric digital interactions.
- Abstract(参考訳): デジタルエコシステムにおける人工知能(AI)の統合の増大は、特にデータ駆動環境をナビゲートする若いデジタル市民にとって、プライバシーのダイナミクスを大きく変えた。
この研究は、デジタル市民(年齢16-19)、親、教育者、AI専門家の3つの主要なステークホルダーグループにわたるプライバシー上の懸念の進化を探求し、データの所有、信頼、透明性、親の仲介、教育、リスクに相応しい認識の違いを評価する。
本研究は, 基礎理論手法を用いて, 構造化された調査, 質的なインタビュー, フォーカスグループを通じて482人の参加者の洞察を合成する。
若者は自律性とデジタルの自由を強調し、保護者や教育者は規制の監督とAIリテラシープログラムを支持している。
対照的にAI専門家は、倫理システム設計と技術効率のバランスを優先する。
このデータはAIのリテラシーと透明性のギャップをさらに強調し、多様なユーザーニーズに対応する包括的なステークホルダー主導のプライバシーフレームワークの必要性を強調している。
比較テーマ分析を用いて、プライバシガバナンスにおける重要な緊張関係を特定し、利害関係者間の動的ネゴシエーションとしてプライバシー決定を構成する新しいプライバシ-倫理アライメント・イン・AI(PEA-AI)モデルを開発する。
透明性、ユーザコントロール、リスク認識、親の仲介といったテーマを体系的に分析することにより、この研究は、AIガバナンスのスケーラブルで適応的な基盤を提供する。
関連論文リスト
- Human Decision-making is Susceptible to AI-driven Manipulation [87.24007555151452]
AIシステムは、ユーザの認知バイアスと感情的な脆弱性を利用して、有害な結果に向けてそれらを操縦する。
本研究では、経済的・感情的な意思決定の文脈におけるこのような操作に対する人間の感受性について検討した。
論文 参考訳(メタデータ) (2025-02-11T15:56:22Z) - Towards Privacy-aware Mental Health AI Models: Advances, Challenges, and Opportunities [61.633126163190724]
精神病は、社会的、個人的コストがかなり高い広範囲で不安定な状態である。
近年の人工知能(AI)の進歩は、うつ病、不安障害、双極性障害、統合失調症、外傷後ストレス障害などの病態を認識し、対処するための大きな可能性を秘めている。
データセットやトレーニング済みモデルからの機密データ漏洩のリスクを含むプライバシー上の懸念は、これらのAIシステムを実際の臨床環境にデプロイする上で、依然として重要な障壁である。
論文 参考訳(メタデータ) (2025-02-01T15:10:02Z) - Investigation of the Privacy Concerns in AI Systems for Young Digital Citizens: A Comparative Stakeholder Analysis [0.0]
この研究は、ユーザー中心のプライバシーコントロール、カスタマイズされた透明性戦略、ターゲットとする教育イニシアチブの必要性を強調している。
多様な利害関係者の視点を取り入れることで、倫理的AI設計とガバナンスに関する実用的な洞察が得られる。
論文 参考訳(メタデータ) (2025-01-23T02:07:45Z) - Toward Ethical AI: A Qualitative Analysis of Stakeholder Perspectives [0.0]
この研究は、AIシステムのプライバシーに関するステークホルダーの視点を探求し、教育者、親、AI専門家に焦点をあてる。
この研究は、227人の参加者による調査回答の質的分析を用いて、データ漏洩、倫理的誤用、過剰なデータ収集を含む主要なプライバシーリスクを特定する。
この調査結果は、堅牢なプライバシ保護とAIのメリットのバランスに関する実用的な洞察を提供する。
論文 参考訳(メタデータ) (2025-01-23T02:06:25Z) - Navigating AI to Unpack Youth Privacy Concerns: An In-Depth Exploration and Systematic Review [0.0]
この体系的な文献レビューは、人工知能(AI)システムにおけるプライバシーに関する若いデジタル市民の認識、関心、期待について調査する。
データ抽出は、プライバシの懸念、データ共有のプラクティス、プライバシとユーティリティのバランス、AIの信頼要因、個人データのユーザコントロールを強化する戦略に焦点を当てている。
発見は、個人情報のコントロールの欠如、AIによるデータの誤用の可能性、データ漏洩や不正アクセスの恐れなど、若いユーザーの間で重要なプライバシー上の懸念を浮き彫りにしている。
論文 参考訳(メタデータ) (2024-12-20T22:00:06Z) - Particip-AI: A Democratic Surveying Framework for Anticipating Future AI Use Cases, Harms and Benefits [54.648819983899614]
汎用AIは、一般大衆がAIを使用してそのパワーを利用するための障壁を下げたようだ。
本稿では,AI利用事例とその影響を推測し,評価するためのフレームワークであるPartICIP-AIを紹介する。
論文 参考訳(メタデータ) (2024-03-21T19:12:37Z) - Ethics and Responsible AI Deployment [1.3597551064547502]
この記事では、倫理基準に準拠しながら個人のプライバシーを保護する倫理的AIシステムの必要性について論じる。
研究は、差分プライバシー、同型暗号化、連合学習、国際規制フレームワーク、倫理ガイドラインなどの革新的なアルゴリズム技術について検討している。
論文 参考訳(メタデータ) (2023-11-12T13:32:46Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - More Than Privacy: Applying Differential Privacy in Key Areas of
Artificial Intelligence [62.3133247463974]
差分プライバシーは、AIのプライバシー保護以上のことができることを示す。
また、セキュリティを改善し、学習を安定させ、公正なモデルを構築し、AIの選択領域にコンポジションを課すためにも使用できる。
論文 参考訳(メタデータ) (2020-08-05T03:07:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。