論文の概要: Investigation of the Privacy Concerns in AI Systems for Young Digital Citizens: A Comparative Stakeholder Analysis
- arxiv url: http://arxiv.org/abs/2501.13321v1
- Date: Thu, 23 Jan 2025 02:07:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-24 15:59:35.582249
- Title: Investigation of the Privacy Concerns in AI Systems for Young Digital Citizens: A Comparative Stakeholder Analysis
- Title(参考訳): 若年デジタル市民のためのAIシステムにおけるプライバシに関する調査 : 利害関係者の比較分析
- Authors: Molly Campbell, Ankur Barthwal, Sandhya Joshi, Austin Shouli, Ajay Kumar Shrestha,
- Abstract要約: この研究は、ユーザー中心のプライバシーコントロール、カスタマイズされた透明性戦略、ターゲットとする教育イニシアチブの必要性を強調している。
多様な利害関係者の視点を取り入れることで、倫理的AI設計とガバナンスに関する実用的な洞察が得られる。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: The integration of Artificial Intelligence (AI) systems into technologies used by young digital citizens raises significant privacy concerns. This study investigates these concerns through a comparative analysis of stakeholder perspectives. A total of 252 participants were surveyed, with the analysis focusing on 110 valid responses from parents/educators and 100 from AI professionals after data cleaning. Quantitative methods, including descriptive statistics and Partial Least Squares Structural Equation Modeling, examined five validated constructs: Data Ownership and Control, Parental Data Sharing, Perceived Risks and Benefits, Transparency and Trust, and Education and Awareness. Results showed Education and Awareness significantly influenced data ownership and risk assessment, while Data Ownership and Control strongly impacted Transparency and Trust. Transparency and Trust, along with Perceived Risks and Benefits, showed minimal influence on Parental Data Sharing, suggesting other factors may play a larger role. The study underscores the need for user-centric privacy controls, tailored transparency strategies, and targeted educational initiatives. Incorporating diverse stakeholder perspectives offers actionable insights into ethical AI design and governance, balancing innovation with robust privacy protections to foster trust in a digital age.
- Abstract(参考訳): 若いデジタル市民が使用する技術への人工知能(AI)システムの統合は、重要なプライバシー上の懸念を提起する。
本研究は、利害関係者の視点の比較分析を通して、これらの懸念を考察する。
調査対象者は合計252名で、データクリーニング後の親・教育者110名、AI専門家100名を対象にした分析を行った。
データ所有と管理,親データ共有,リスクと利益の知覚,透明性と信頼,教育と意識の5つの検証された構成について,記述統計と部分最小方形構造方程式モデリングを含む定量的手法を検討した。
その結果、データ所有とリスク評価には教育と意識が大きく影響し、データ所有とコントロールは透明性と信頼に大きく影響した。
透明性と信頼は、知覚的リスクと利益とともに、親のデータ共有に最小限の影響を示し、他の要因がより大きな役割を果たす可能性があることを示唆した。
この研究は、ユーザー中心のプライバシーコントロール、カスタマイズされた透明性戦略、ターゲットとする教育イニシアチブの必要性を強調している。
多様な利害関係者の視点を取り入れることで、倫理的AI設計とガバナンスに関する実用的な洞察が得られ、デジタル時代の信頼を育むために、イノベーションと堅牢なプライバシ保護のバランスをとることができる。
関連論文リスト
- Toward Ethical AI: A Qualitative Analysis of Stakeholder Perspectives [0.0]
この研究は、AIシステムのプライバシーに関するステークホルダーの視点を探求し、教育者、親、AI専門家に焦点をあてる。
この研究は、227人の参加者による調査回答の質的分析を用いて、データ漏洩、倫理的誤用、過剰なデータ収集を含む主要なプライバシーリスクを特定する。
この調査結果は、堅牢なプライバシ保護とAIのメリットのバランスに関する実用的な洞察を提供する。
論文 参考訳(メタデータ) (2025-01-23T02:06:25Z) - Navigating AI to Unpack Youth Privacy Concerns: An In-Depth Exploration and Systematic Review [0.0]
この体系的な文献レビューは、人工知能(AI)システムにおけるプライバシーに関する若いデジタル市民の認識、関心、期待について調査する。
データ抽出は、プライバシの懸念、データ共有のプラクティス、プライバシとユーティリティのバランス、AIの信頼要因、個人データのユーザコントロールを強化する戦略に焦点を当てている。
発見は、個人情報のコントロールの欠如、AIによるデータの誤用の可能性、データ漏洩や不正アクセスの恐れなど、若いユーザーの間で重要なプライバシー上の懸念を浮き彫りにしている。
論文 参考訳(メタデータ) (2024-12-20T22:00:06Z) - Analyzing the Impact of AI Tools on Student Study Habits and Academic Performance [0.0]
この研究は、AIツールがパーソナライズされた学習、適応テスト調整をサポートし、リアルタイムの教室分析を提供する方法に焦点を当てている。
学生のフィードバックはこれらの特徴に対する強い支持を示し、GPAの増加とともに研究時間を大幅に短縮した。
これらのメリットにもかかわらず、AIへの過度依存や、AIと従来の教育方法を統合することの難しさといった課題も特定された。
論文 参考訳(メタデータ) (2024-12-03T04:51:57Z) - Mapping Public Perception of Artificial Intelligence: Expectations, Risk-Benefit Tradeoffs, and Value As Determinants for Societal Acceptance [0.20971479389679332]
ドイツからの1100人の参加者の代表的サンプルを用いて,AIの精神モデルについて検討した。
参加者はAIの将来能力に関する71のステートメントを定量的に評価した。
我々は、これらの予測のランキングを、公共のリスクと利益のトレードオフを示す視覚マッピングと共に提示する。
論文 参考訳(メタデータ) (2024-11-28T20:03:01Z) - Multi-stakeholder Perspective on Responsible Artificial Intelligence and
Acceptability in Education [0.0]
この研究は、多職種の視点から、教育における異なるAI応用の受容性について検討した。
データプライバシ、AIエージェンシー、透明性、説明可能性、AIの倫理的展開に関する懸念に対処する。
論文 参考訳(メタデータ) (2024-02-22T23:59:59Z) - Auditing and Generating Synthetic Data with Controllable Trust Trade-offs [54.262044436203965]
合成データセットとAIモデルを包括的に評価する総合監査フレームワークを導入する。
バイアスや差別の防止、ソースデータへの忠実性の確保、実用性、堅牢性、プライバシ保護などに焦点を当てている。
多様なユースケースにまたがる様々な生成モデルを監査することにより,フレームワークの有効性を実証する。
論文 参考訳(メタデータ) (2023-04-21T09:03:18Z) - Adaptive cognitive fit: Artificial intelligence augmented management of
information facets and representations [62.997667081978825]
ビッグデータ技術と人工知能(AI)応用の爆発的な成長は、情報ファセットの普及に繋がった。
等角性や正確性などの情報フェートは、情報に対する人間の認識を支配的かつ著しく左右する。
認知の限界を克服するために情報表現を適応できる人工知能技術が必要であることを示唆する。
論文 参考訳(メタデータ) (2022-04-25T02:47:25Z) - Trustworthy Transparency by Design [57.67333075002697]
本稿では,ユーザ信頼とエクスペリエンスに関する研究を取り入れた,ソフトウェア設計のための透明性フレームワークを提案する。
私たちのフレームワークは、その設計に透明性を取り入れたソフトウェアの開発を可能にします。
論文 参考訳(メタデータ) (2021-03-19T12:34:01Z) - Uncertainty as a Form of Transparency: Measuring, Communicating, and
Using Uncertainty [66.17147341354577]
我々は,モデル予測に関連する不確実性を推定し,伝達することにより,相補的な透明性の形式を考えることについて議論する。
モデルの不公平性を緩和し、意思決定を強化し、信頼できるシステムを構築するために不確実性がどのように使われるかを説明する。
この研究は、機械学習、可視化/HCI、デザイン、意思決定、公平性にまたがる文学から引き出された学際的レビューを構成する。
論文 参考訳(メタデータ) (2020-11-15T17:26:14Z) - Trustworthy AI [75.99046162669997]
入力データの小さな敵対的変化への脆さ、決定の説明能力、トレーニングデータのバイアスに対処する能力は、最も顕著な制限である。
我々は,AIシステムに対するユーザおよび公的な信頼を高める上での6つの重要な問題に対処するために,信頼に値するAIに関するチュートリアルを提案する。
論文 参考訳(メタデータ) (2020-11-02T20:04:18Z) - Differentially Private and Fair Deep Learning: A Lagrangian Dual
Approach [54.32266555843765]
本稿では,個人の機密情報のプライバシを保護するとともに,非差別的予測器の学習を可能にするモデルについて検討する。
この方法は、微分プライバシーの概念と、公正性制約を満たすニューラルネットワークの設計にラグランジアン双対性(Lagrangian duality)を用いることに依存している。
論文 参考訳(メタデータ) (2020-09-26T10:50:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。