論文の概要: Investigation of the Privacy Concerns in AI Systems for Young Digital Citizens: A Comparative Stakeholder Analysis
- arxiv url: http://arxiv.org/abs/2501.13321v1
- Date: Thu, 23 Jan 2025 02:07:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-24 15:59:35.582249
- Title: Investigation of the Privacy Concerns in AI Systems for Young Digital Citizens: A Comparative Stakeholder Analysis
- Title(参考訳): 若年デジタル市民のためのAIシステムにおけるプライバシに関する調査 : 利害関係者の比較分析
- Authors: Molly Campbell, Ankur Barthwal, Sandhya Joshi, Austin Shouli, Ajay Kumar Shrestha,
- Abstract要約: この研究は、ユーザー中心のプライバシーコントロール、カスタマイズされた透明性戦略、ターゲットとする教育イニシアチブの必要性を強調している。
多様な利害関係者の視点を取り入れることで、倫理的AI設計とガバナンスに関する実用的な洞察が得られる。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: The integration of Artificial Intelligence (AI) systems into technologies used by young digital citizens raises significant privacy concerns. This study investigates these concerns through a comparative analysis of stakeholder perspectives. A total of 252 participants were surveyed, with the analysis focusing on 110 valid responses from parents/educators and 100 from AI professionals after data cleaning. Quantitative methods, including descriptive statistics and Partial Least Squares Structural Equation Modeling, examined five validated constructs: Data Ownership and Control, Parental Data Sharing, Perceived Risks and Benefits, Transparency and Trust, and Education and Awareness. Results showed Education and Awareness significantly influenced data ownership and risk assessment, while Data Ownership and Control strongly impacted Transparency and Trust. Transparency and Trust, along with Perceived Risks and Benefits, showed minimal influence on Parental Data Sharing, suggesting other factors may play a larger role. The study underscores the need for user-centric privacy controls, tailored transparency strategies, and targeted educational initiatives. Incorporating diverse stakeholder perspectives offers actionable insights into ethical AI design and governance, balancing innovation with robust privacy protections to foster trust in a digital age.
- Abstract(参考訳): 若いデジタル市民が使用する技術への人工知能(AI)システムの統合は、重要なプライバシー上の懸念を提起する。
本研究は、利害関係者の視点の比較分析を通して、これらの懸念を考察する。
調査対象者は合計252名で、データクリーニング後の親・教育者110名、AI専門家100名を対象にした分析を行った。
データ所有と管理,親データ共有,リスクと利益の知覚,透明性と信頼,教育と意識の5つの検証された構成について,記述統計と部分最小方形構造方程式モデリングを含む定量的手法を検討した。
その結果、データ所有とリスク評価には教育と意識が大きく影響し、データ所有とコントロールは透明性と信頼に大きく影響した。
透明性と信頼は、知覚的リスクと利益とともに、親のデータ共有に最小限の影響を示し、他の要因がより大きな役割を果たす可能性があることを示唆した。
この研究は、ユーザー中心のプライバシーコントロール、カスタマイズされた透明性戦略、ターゲットとする教育イニシアチブの必要性を強調している。
多様な利害関係者の視点を取り入れることで、倫理的AI設計とガバナンスに関する実用的な洞察が得られ、デジタル時代の信頼を育むために、イノベーションと堅牢なプライバシ保護のバランスをとることができる。
関連論文リスト
- Multi-stakeholder Perspective on Responsible Artificial Intelligence and
Acceptability in Education [0.0]
この研究は、多職種の視点から、教育における異なるAI応用の受容性について検討した。
データプライバシ、AIエージェンシー、透明性、説明可能性、AIの倫理的展開に関する懸念に対処する。
論文 参考訳(メタデータ) (2024-02-22T23:59:59Z) - Auditing and Generating Synthetic Data with Controllable Trust Trade-offs [54.262044436203965]
合成データセットとAIモデルを包括的に評価する総合監査フレームワークを導入する。
バイアスや差別の防止、ソースデータへの忠実性の確保、実用性、堅牢性、プライバシ保護などに焦点を当てている。
多様なユースケースにまたがる様々な生成モデルを監査することにより,フレームワークの有効性を実証する。
論文 参考訳(メタデータ) (2023-04-21T09:03:18Z) - Contributing to Accessibility Datasets: Reflections on Sharing Study
Data by Blind People [14.625384963263327]
13人の盲目の被験者がデータ収集活動に従事している2つの研究結果を示す。
リスク・ベネフィットのトレードオフを評価する際に、異なる要因が被験者の学習データ共有意欲にどのような影響を及ぼすかを確認する。
大多数は、技術改善のためにデータの共有をサポートしますが、商用利用、関連するメタデータ、およびデータの影響に関する透明性の欠如に対する懸念を表明しています。
論文 参考訳(メタデータ) (2023-03-09T00:42:18Z) - Adaptive cognitive fit: Artificial intelligence augmented management of
information facets and representations [62.997667081978825]
ビッグデータ技術と人工知能(AI)応用の爆発的な成長は、情報ファセットの普及に繋がった。
等角性や正確性などの情報フェートは、情報に対する人間の認識を支配的かつ著しく左右する。
認知の限界を克服するために情報表現を適応できる人工知能技術が必要であることを示唆する。
論文 参考訳(メタデータ) (2022-04-25T02:47:25Z) - Students' Information Privacy Concerns in Learning Analytics: Towards a
Model Development [0.0]
本研究では,学習分析(LA)に関する学生の情報プライバシー問題(IPC)を理解するための理論的モデルを提案する。
我々は、ICCを、プライバシーの脆弱性の認識とプライバシーのコントロールの認識と、その影響、信念の信頼と自己開示行動の2つの先行する部分の中央構造として検討する。
論文 参考訳(メタデータ) (2021-08-31T20:32:49Z) - Trustworthy Transparency by Design [57.67333075002697]
本稿では,ユーザ信頼とエクスペリエンスに関する研究を取り入れた,ソフトウェア設計のための透明性フレームワークを提案する。
私たちのフレームワークは、その設計に透明性を取り入れたソフトウェアの開発を可能にします。
論文 参考訳(メタデータ) (2021-03-19T12:34:01Z) - Uncertainty as a Form of Transparency: Measuring, Communicating, and
Using Uncertainty [66.17147341354577]
我々は,モデル予測に関連する不確実性を推定し,伝達することにより,相補的な透明性の形式を考えることについて議論する。
モデルの不公平性を緩和し、意思決定を強化し、信頼できるシステムを構築するために不確実性がどのように使われるかを説明する。
この研究は、機械学習、可視化/HCI、デザイン、意思決定、公平性にまたがる文学から引き出された学際的レビューを構成する。
論文 参考訳(メタデータ) (2020-11-15T17:26:14Z) - Trustworthy AI [75.99046162669997]
入力データの小さな敵対的変化への脆さ、決定の説明能力、トレーニングデータのバイアスに対処する能力は、最も顕著な制限である。
我々は,AIシステムに対するユーザおよび公的な信頼を高める上での6つの重要な問題に対処するために,信頼に値するAIに関するチュートリアルを提案する。
論文 参考訳(メタデータ) (2020-11-02T20:04:18Z) - Differentially Private and Fair Deep Learning: A Lagrangian Dual
Approach [54.32266555843765]
本稿では,個人の機密情報のプライバシを保護するとともに,非差別的予測器の学習を可能にするモデルについて検討する。
この方法は、微分プライバシーの概念と、公正性制約を満たすニューラルネットワークの設計にラグランジアン双対性(Lagrangian duality)を用いることに依存している。
論文 参考訳(メタデータ) (2020-09-26T10:50:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。