論文の概要: Toward Ethical AI: A Qualitative Analysis of Stakeholder Perspectives
- arxiv url: http://arxiv.org/abs/2501.13320v1
- Date: Thu, 23 Jan 2025 02:06:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-24 15:59:36.248570
- Title: Toward Ethical AI: A Qualitative Analysis of Stakeholder Perspectives
- Title(参考訳): 倫理的AIに向けて:株主の視点を質的に分析する
- Authors: Ajay Kumar Shrestha, Sandhya Joshi,
- Abstract要約: この研究は、AIシステムのプライバシーに関するステークホルダーの視点を探求し、教育者、親、AI専門家に焦点をあてる。
この研究は、227人の参加者による調査回答の質的分析を用いて、データ漏洩、倫理的誤用、過剰なデータ収集を含む主要なプライバシーリスクを特定する。
この調査結果は、堅牢なプライバシ保護とAIのメリットのバランスに関する実用的な洞察を提供する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: As Artificial Intelligence (AI) systems become increasingly integrated into various aspects of daily life, concerns about privacy and ethical accountability are gaining prominence. This study explores stakeholder perspectives on privacy in AI systems, focusing on educators, parents, and AI professionals. Using qualitative analysis of survey responses from 227 participants, the research identifies key privacy risks, including data breaches, ethical misuse, and excessive data collection, alongside perceived benefits such as personalized services, enhanced efficiency, and educational advancements. Stakeholders emphasized the need for transparency, privacy-by-design, user empowerment, and ethical oversight to address privacy concerns effectively. The findings provide actionable insights into balancing the benefits of AI with robust privacy protections, catering to the diverse needs of stakeholders. Recommendations include implementing selective data use, fostering transparency, promoting user autonomy, and integrating ethical principles into AI development. This study contributes to the ongoing discourse on ethical AI, offering guidance for designing privacy-centric systems that align with societal values and build trust among users. By addressing privacy challenges, this research underscores the importance of developing AI technologies that are not only innovative but also ethically sound and responsive to the concerns of all stakeholders.
- Abstract(参考訳): 人工知能(AI)システムが日常生活の様々な側面に統合されるにつれて、プライバシーや倫理的説明責任に関する懸念が高まりつつある。
この研究は、AIシステムのプライバシーに関するステークホルダーの視点を探求し、教育者、親、AI専門家に焦点をあてる。
この研究は、227人の参加者による調査回答の質的分析を用いて、個人情報侵害、倫理的誤用、過剰なデータ収集などの重要なプライバシーリスクと、パーソナライズされたサービス、強化された効率、教育的進歩などのメリットを識別する。
株主は透明性、プライバシ・バイ・デザイン、ユーザー権限、プライバシー問題に効果的に対処するための倫理的監督の必要性を強調した。
この調査結果は、AIのメリットと堅牢なプライバシ保護のバランスをとる上で、さまざまな利害関係者のニーズに対応するための実用的な洞察を提供する。
推奨事項には、選択的なデータ使用の実装、透明性の向上、ユーザの自律性の促進、AI開発への倫理的原則の統合などが含まれる。
この研究は、倫理的AIに関する議論の継続に寄与し、プライバシー中心のシステムを設計し、社会的価値と整合し、ユーザ間の信頼を構築するためのガイダンスを提供する。
プライバシー問題に対処することで、この研究は、革新的でありながら倫理的に健全であり、すべての利害関係者の懸念に反応するAI技術を開発することの重要性を強調します。
関連論文リスト
- Towards Privacy-aware Mental Health AI Models: Advances, Challenges, and Opportunities [61.633126163190724]
精神病は、社会的、個人的コストがかなり高い広範囲で不安定な状態である。
近年の人工知能(AI)の進歩は、うつ病、不安障害、双極性障害、統合失調症、外傷後ストレス障害などの病態を認識し、対処するための大きな可能性を秘めている。
データセットやトレーニング済みモデルからの機密データ漏洩のリスクを含むプライバシー上の懸念は、これらのAIシステムを実際の臨床環境にデプロイする上で、依然として重要な障壁である。
論文 参考訳(メタデータ) (2025-02-01T15:10:02Z) - Investigation of the Privacy Concerns in AI Systems for Young Digital Citizens: A Comparative Stakeholder Analysis [0.0]
この研究は、ユーザー中心のプライバシーコントロール、カスタマイズされた透明性戦略、ターゲットとする教育イニシアチブの必要性を強調している。
多様な利害関係者の視点を取り入れることで、倫理的AI設計とガバナンスに関する実用的な洞察が得られる。
論文 参考訳(メタデータ) (2025-01-23T02:07:45Z) - Open Problems in Machine Unlearning for AI Safety [61.43515658834902]
特定の種類の知識を選択的に忘れたり、抑圧したりするマシンアンラーニングは、プライバシとデータ削除タスクの約束を示している。
本稿では,アンラーニングがAI安全性の包括的ソリューションとして機能することを防止するための重要な制約を特定する。
論文 参考訳(メタデータ) (2025-01-09T03:59:10Z) - Ethical AI in Retail: Consumer Privacy and Fairness [0.0]
小売業における人工知能(AI)の採用は、業界を大きく変革させ、よりパーソナライズされたサービスと効率的な運用を可能にした。
しかし、AI技術の急速な実装は、特に消費者プライバシと公正性に関する倫理的懸念を提起する。
本研究の目的は、小売業におけるAIアプリケーションの倫理的課題を分析し、競争力を維持しながらAI技術を倫理的に実装する方法を探究し、倫理的AIプラクティスに関する推奨を提供することである。
論文 参考訳(メタデータ) (2024-10-20T12:00:14Z) - Enhancing transparency in AI-powered customer engagement [0.0]
本稿では、AIを活用した顧客エンゲージメントに対する消費者信頼を構築する上での重要な課題について論じる。
AIがビジネスオペレーションに革命をもたらす可能性にもかかわらず、誤った情報やAI意思決定プロセスの不透明性に対する広範な懸念は、信頼を損なう。
透明性と説明可能性に対する全体論的アプローチを採用することで、企業はAIテクノロジへの信頼を育むことができる。
論文 参考訳(メタデータ) (2024-09-13T20:26:11Z) - Privacy Risks of General-Purpose AI Systems: A Foundation for Investigating Practitioner Perspectives [47.17703009473386]
強力なAIモデルによって、幅広いタスクでパフォーマンスが飛躍的に向上した。
プライバシの懸念は、さまざまなプライバシのリスクとAIモデルの脆弱性をカバーした、豊富な文献につながっている。
我々はこれらの調査論文の体系的なレビューを行い、GPAISにおけるプライバシーリスクの簡潔かつ有用な概観を提供する。
論文 参考訳(メタデータ) (2024-07-02T07:49:48Z) - Testing autonomous vehicles and AI: perspectives and challenges from cybersecurity, transparency, robustness and fairness [53.91018508439669]
この研究は、人工知能を自律走行車(AV)に統合する複雑さを探求する
AIコンポーネントがもたらした課題と、テスト手順への影響を調べます。
本稿は、重要な課題を特定し、AV技術におけるAIの研究・開発に向けた今後の方向性を提案する。
論文 参考訳(メタデータ) (2024-02-21T08:29:42Z) - Investigating Responsible AI for Scientific Research: An Empirical Study [4.597781832707524]
このような機関におけるResponsible AI(RAI)の推進は、AI設計と開発に倫理的配慮を統合することの重要性の高まりを強調している。
本稿では,AI設計・開発に内在する倫理的リスクに対する意識と準備性を評価することを目的とする。
その結果、倫理的、責任的、包括的AIに関する知識ギャップが明らかとなり、利用可能なAI倫理フレームワークに対する認識が制限された。
論文 参考訳(メタデータ) (2023-12-15T06:40:27Z) - Ethics and Responsible AI Deployment [1.3597551064547502]
この記事では、倫理基準に準拠しながら個人のプライバシーを保護する倫理的AIシステムの必要性について論じる。
研究は、差分プライバシー、同型暗号化、連合学習、国際規制フレームワーク、倫理ガイドラインなどの革新的なアルゴリズム技術について検討している。
論文 参考訳(メタデータ) (2023-11-12T13:32:46Z) - Trustworthy AI [75.99046162669997]
入力データの小さな敵対的変化への脆さ、決定の説明能力、トレーニングデータのバイアスに対処する能力は、最も顕著な制限である。
我々は,AIシステムに対するユーザおよび公的な信頼を高める上での6つの重要な問題に対処するために,信頼に値するAIに関するチュートリアルを提案する。
論文 参考訳(メタデータ) (2020-11-02T20:04:18Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。