論文の概要: Responsible AI Adoption in the Public Sector: A Data-Centric Taxonomy of AI Adoption Challenges
- arxiv url: http://arxiv.org/abs/2510.09634v1
- Date: Mon, 29 Sep 2025 18:42:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-20 05:23:07.148806
- Title: Responsible AI Adoption in the Public Sector: A Data-Centric Taxonomy of AI Adoption Challenges
- Title(参考訳): 公共部門における責任あるAI導入:AI導入課題のデータ中心分類
- Authors: Anastasija Nikiforova, Martin Lnenicka, Ulf Melin, David Valle-Cruz, Asif Gill, Cesar Casiano Flores, Emyana Sirait, Mariusz Luterek, Richard Michael Dreyling, Barbora Tesarova,
- Abstract要約: 本研究では、政府におけるAI導入の責任を負うために、データ関連課題の分類法を開発する。
43の研究と21の専門的評価の体系的なレビューに基づいて、分類学は、技術的、組織的、環境的な側面において13の重要な課題を特定している。
分類学は、機関の圧力に付加され、リスクの高いAIデプロイメントの「症状」を表面化する診断ツールとして機能する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite Artificial Intelligence (AI) transformative potential for public sector services, decision-making, and administrative efficiency, adoption remains uneven due to complex technical, organizational, and institutional challenges. Responsible AI frameworks emphasize fairness, accountability, and transparency, aligning with principles of trustworthy AI and fair AI, yet remain largely aspirational, overlooking technical and institutional realities, especially foundational data and governance. This study addresses this gap by developing a taxonomy of data-related challenges to responsible AI adoption in government. Based on a systematic review of 43 studies and 21 expert evaluations, the taxonomy identifies 13 key challenges across technological, organizational, and environmental dimensions, including poor data quality, limited AI-ready infrastructure, weak governance, misalignment in human-AI decision-making, economic and environmental sustainability concerns. Annotated with institutional pressures, the taxonomy serves as a diagnostic tool to surface 'symptoms' of high-risk AI deployment and guides policymakers in building the institutional and data governance conditions necessary for responsible AI adoption.
- Abstract(参考訳): 人工知能(AI)は、公共セクターサービス、意思決定、行政効率の変革の可能性を秘めているが、複雑な技術的、組織的、制度的な課題のために採用は不均一である。
責任のあるAIフレームワークは、公正さ、説明責任、透明性を強調し、信頼できるAIと公正なAIの原則に沿っている。
本研究では、政府におけるAI導入の責任を負うためのデータ関連課題の分類学を開発することで、このギャップに対処する。
43の研究と21の専門的評価の体系的なレビューに基づいて、分類学は、データ品質の低さ、AI対応インフラストラクチャの制限、ガバナンスの弱さ、人間とAIの意思決定の不一致、経済と環境の持続可能性に関する懸念を含む、技術、組織、および環境に関する13の課題を特定している。
リスクの高いAIデプロイメントの「症状」を明らかにするための診断ツールとして機能し、AI導入に責任を負うために必要な制度的およびデータガバナンス条件を構築するための政策立案者を支援する。
関連論文リスト
- Trust and Transparency in AI: Industry Voices on Data, Ethics, and Compliance [0.7099737083842057]
業界におけるAIの急速な採用は、倫理的評価フレームワークを上回っている。
本稿では,信頼に値するAIの開発と評価における実践的アプローチと課題について考察する。
論文 参考訳(メタデータ) (2025-09-23T20:58:01Z) - Never Compromise to Vulnerabilities: A Comprehensive Survey on AI Governance [211.5823259429128]
本研究は,本質的セキュリティ,デリバティブ・セキュリティ,社会倫理の3つの柱を中心に構築された,技術的・社会的次元を統合した包括的枠組みを提案する。
我々は,(1)防衛が進化する脅威に対して失敗する一般化ギャップ,(2)現実世界のリスクを無視する不適切な評価プロトコル,(3)矛盾する監視につながる断片的な規制,の3つの課題を特定する。
私たちのフレームワークは、研究者、エンジニア、政策立案者に対して、堅牢でセキュアなだけでなく、倫理的に整合性があり、公的な信頼に値するAIシステムを開発するための実用的なガイダンスを提供します。
論文 参考訳(メタデータ) (2025-08-12T09:42:56Z) - Enterprise Architecture as a Dynamic Capability for Scalable and Sustainable Generative AI adoption: Bridging Innovation and Governance in Large Organisations [55.2480439325792]
生成人工知能(Generative Artificial Intelligence)は、イノベーションを促進し、多くの産業におけるガバナンスを再形成する可能性を持つ強力な新技術である。
しかし、テクノロジの複雑さ、ガバナンスのギャップ、リソースのミスアライメントなど、GenAIをスケールする上で大きな課題に直面している。
本稿では、大企業におけるGenAI導入の複雑な要件をエンタープライズアーキテクチャ管理が満たす方法について検討する。
論文 参考訳(メタデータ) (2025-05-09T07:41:33Z) - Who is Responsible When AI Fails? Mapping Causes, Entities, and Consequences of AI Privacy and Ethical Incidents [31.53910982726317]
我々は、202の現実世界のAIプライバシと倫理的インシデントを分析し、分類学を開発した。
この結果から, 組織的決定の貧弱さと法的な非コンプライアンスの悪影響が明らかとなった。
本研究は,政策立案者や実践者に対して有効なガイダンスを提供する。
論文 参考訳(メタデータ) (2025-03-28T21:57:38Z) - AI and the Transformation of Accountability and Discretion in Urban Governance [1.9152655229960793]
この研究は洞察を合成し、意思決定プロセスにおける責任あるAI統合のための指針原則を提案する。
分析によると、AIは単に判断を制限したり、強化したりするのではなく、制度レベルで再配布する。
同時に管理の監督を強化し、意思決定の整合性を高め、運用効率を向上させることができる。
論文 参考訳(メタデータ) (2025-02-18T18:11:39Z) - Open Problems in Technical AI Governance [102.19067750759471]
テクニカルAIガバナンス(Technical AI Governance)は、AIの効果的なガバナンスを支援するための技術分析とツールである。
本論文は、AIガバナンスへの貢献を目指す技術研究者や研究資金提供者のためのリソースとして意図されている。
論文 参考訳(メタデータ) (2024-07-20T21:13:56Z) - AI in ESG for Financial Institutions: An Industrial Survey [4.893954917947095]
本稿では,ESGフレームワークの活性化におけるAIの必要性と影響を明らかにするために,産業環境を調査した。
調査では、分析能力、リスク評価、顧客エンゲージメント、報告精度など、ESGの主要な3つの柱にまたがるAIアプリケーションを分類した。
この論文は、ESG関連の銀行プロセスにおけるAI展開の倫理的側面を強調し、責任と持続可能なAIの衝動についても論じている。
論文 参考訳(メタデータ) (2024-02-03T02:14:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。