論文の概要: Toward Ethical AI: A Qualitative Analysis of Stakeholder Perspectives
- arxiv url: http://arxiv.org/abs/2501.13320v1
- Date: Thu, 23 Jan 2025 02:06:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-24 15:59:36.248570
- Title: Toward Ethical AI: A Qualitative Analysis of Stakeholder Perspectives
- Title(参考訳): 倫理的AIに向けて:株主の視点を質的に分析する
- Authors: Ajay Kumar Shrestha, Sandhya Joshi,
- Abstract要約: この研究は、AIシステムのプライバシーに関するステークホルダーの視点を探求し、教育者、親、AI専門家に焦点をあてる。
この研究は、227人の参加者による調査回答の質的分析を用いて、データ漏洩、倫理的誤用、過剰なデータ収集を含む主要なプライバシーリスクを特定する。
この調査結果は、堅牢なプライバシ保護とAIのメリットのバランスに関する実用的な洞察を提供する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: As Artificial Intelligence (AI) systems become increasingly integrated into various aspects of daily life, concerns about privacy and ethical accountability are gaining prominence. This study explores stakeholder perspectives on privacy in AI systems, focusing on educators, parents, and AI professionals. Using qualitative analysis of survey responses from 227 participants, the research identifies key privacy risks, including data breaches, ethical misuse, and excessive data collection, alongside perceived benefits such as personalized services, enhanced efficiency, and educational advancements. Stakeholders emphasized the need for transparency, privacy-by-design, user empowerment, and ethical oversight to address privacy concerns effectively. The findings provide actionable insights into balancing the benefits of AI with robust privacy protections, catering to the diverse needs of stakeholders. Recommendations include implementing selective data use, fostering transparency, promoting user autonomy, and integrating ethical principles into AI development. This study contributes to the ongoing discourse on ethical AI, offering guidance for designing privacy-centric systems that align with societal values and build trust among users. By addressing privacy challenges, this research underscores the importance of developing AI technologies that are not only innovative but also ethically sound and responsive to the concerns of all stakeholders.
- Abstract(参考訳): 人工知能(AI)システムが日常生活の様々な側面に統合されるにつれて、プライバシーや倫理的説明責任に関する懸念が高まりつつある。
この研究は、AIシステムのプライバシーに関するステークホルダーの視点を探求し、教育者、親、AI専門家に焦点をあてる。
この研究は、227人の参加者による調査回答の質的分析を用いて、個人情報侵害、倫理的誤用、過剰なデータ収集などの重要なプライバシーリスクと、パーソナライズされたサービス、強化された効率、教育的進歩などのメリットを識別する。
株主は透明性、プライバシ・バイ・デザイン、ユーザー権限、プライバシー問題に効果的に対処するための倫理的監督の必要性を強調した。
この調査結果は、AIのメリットと堅牢なプライバシ保護のバランスをとる上で、さまざまな利害関係者のニーズに対応するための実用的な洞察を提供する。
推奨事項には、選択的なデータ使用の実装、透明性の向上、ユーザの自律性の促進、AI開発への倫理的原則の統合などが含まれる。
この研究は、倫理的AIに関する議論の継続に寄与し、プライバシー中心のシステムを設計し、社会的価値と整合し、ユーザ間の信頼を構築するためのガイダンスを提供する。
プライバシー問題に対処することで、この研究は、革新的でありながら倫理的に健全であり、すべての利害関係者の懸念に反応するAI技術を開発することの重要性を強調します。
関連論文リスト
- Ethical AI in Retail: Consumer Privacy and Fairness [0.0]
小売業における人工知能(AI)の採用は、業界を大きく変革させ、よりパーソナライズされたサービスと効率的な運用を可能にした。
しかし、AI技術の急速な実装は、特に消費者プライバシと公正性に関する倫理的懸念を提起する。
本研究の目的は、小売業におけるAIアプリケーションの倫理的課題を分析し、競争力を維持しながらAI技術を倫理的に実装する方法を探究し、倫理的AIプラクティスに関する推奨を提供することである。
論文 参考訳(メタデータ) (2024-10-20T12:00:14Z) - Enhancing transparency in AI-powered customer engagement [0.0]
本稿では、AIを活用した顧客エンゲージメントに対する消費者信頼を構築する上での重要な課題について論じる。
AIがビジネスオペレーションに革命をもたらす可能性にもかかわらず、誤った情報やAI意思決定プロセスの不透明性に対する広範な懸念は、信頼を損なう。
透明性と説明可能性に対する全体論的アプローチを採用することで、企業はAIテクノロジへの信頼を育むことができる。
論文 参考訳(メタデータ) (2024-09-13T20:26:11Z) - Privacy Risks of General-Purpose AI Systems: A Foundation for Investigating Practitioner Perspectives [47.17703009473386]
強力なAIモデルによって、幅広いタスクでパフォーマンスが飛躍的に向上した。
プライバシの懸念は、さまざまなプライバシのリスクとAIモデルの脆弱性をカバーした、豊富な文献につながっている。
我々はこれらの調査論文の体系的なレビューを行い、GPAISにおけるプライバシーリスクの簡潔かつ有用な概観を提供する。
論文 参考訳(メタデータ) (2024-07-02T07:49:48Z) - Particip-AI: A Democratic Surveying Framework for Anticipating Future AI Use Cases, Harms and Benefits [54.648819983899614]
汎用AIは、一般大衆がAIを使用してそのパワーを利用するための障壁を下げたようだ。
本稿では,AI利用事例とその影響を推測し,評価するためのフレームワークであるPartICIP-AIを紹介する。
論文 参考訳(メタデータ) (2024-03-21T19:12:37Z) - Testing autonomous vehicles and AI: perspectives and challenges from cybersecurity, transparency, robustness and fairness [53.91018508439669]
この研究は、人工知能を自律走行車(AV)に統合する複雑さを探求する
AIコンポーネントがもたらした課題と、テスト手順への影響を調べます。
本稿は、重要な課題を特定し、AV技術におけるAIの研究・開発に向けた今後の方向性を提案する。
論文 参考訳(メタデータ) (2024-02-21T08:29:42Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Investigating Responsible AI for Scientific Research: An Empirical Study [4.597781832707524]
このような機関におけるResponsible AI(RAI)の推進は、AI設計と開発に倫理的配慮を統合することの重要性の高まりを強調している。
本稿では,AI設計・開発に内在する倫理的リスクに対する意識と準備性を評価することを目的とする。
その結果、倫理的、責任的、包括的AIに関する知識ギャップが明らかとなり、利用可能なAI倫理フレームワークに対する認識が制限された。
論文 参考訳(メタデータ) (2023-12-15T06:40:27Z) - Ethics and Responsible AI Deployment [1.3597551064547502]
この記事では、倫理基準に準拠しながら個人のプライバシーを保護する倫理的AIシステムの必要性について論じる。
研究は、差分プライバシー、同型暗号化、連合学習、国際規制フレームワーク、倫理ガイドラインなどの革新的なアルゴリズム技術について検討している。
論文 参考訳(メタデータ) (2023-11-12T13:32:46Z) - Trustworthy AI [75.99046162669997]
入力データの小さな敵対的変化への脆さ、決定の説明能力、トレーニングデータのバイアスに対処する能力は、最も顕著な制限である。
我々は,AIシステムに対するユーザおよび公的な信頼を高める上での6つの重要な問題に対処するために,信頼に値するAIに関するチュートリアルを提案する。
論文 参考訳(メタデータ) (2020-11-02T20:04:18Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。