論文の概要: AI-Driven Document Redaction in UK Public Authorities: Implementation Gaps, Regulatory Challenges, and the Human Oversight Imperative
- arxiv url: http://arxiv.org/abs/2512.02774v1
- Date: Tue, 02 Dec 2025 13:52:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-03 21:04:45.898888
- Title: AI-Driven Document Redaction in UK Public Authorities: Implementation Gaps, Regulatory Challenges, and the Human Oversight Imperative
- Title(参考訳): 英国公共団体におけるAI駆動ドキュメントのリアクション:実装ギャップ、規制課題、人間による監視命令
- Authors: Yijun Chen,
- Abstract要約: 本研究は、自由情報要求を通じて、英国公共当局におけるAIによる文書再アクションの実施について検討する。
技術的可能性と組織的現実の間には大きなギャップがある。
この研究は、効果的なAI実装のための3つの重要な障壁を特定している。
- 参考スコア(独自算出の注目度): 2.8689825520190446
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Document redaction in public authorities faces critical challenges as traditional manual approaches struggle to balance growing transparency demands with increasingly stringent data protection requirements. This study investigates the implementation of AI-driven document redaction within UK public authorities through Freedom of Information (FOI) requests. While AI technologies offer potential solutions to redaction challenges, their actual implementation within public sector organizations remains underexplored. Based on responses from 44 public authorities across healthcare, government, and higher education sectors, this study reveals significant gaps between technological possibilities and organizational realities. Findings show highly limited AI adoption (only one authority reported using AI tools), widespread absence of formal redaction policies (50 percent reported "information not held"), and deficiencies in staff training. The study identifies three key barriers to effective AI implementation: poor record-keeping practices, lack of standardized redaction guidelines, and insufficient specialized training for human oversight. These findings highlight the need for a socio-technical approach that balances technological automation with meaningful human expertise. This research provides the first empirical assessment of AI redaction practices in UK public authorities and contributes evidence to support policymakers navigating the complex interplay between transparency obligations, data protection requirements, and emerging AI technologies in public administration.
- Abstract(参考訳): 従来の手作業によるアプローチは、増大する透明性要求と、ますます厳しいデータ保護要件とのバランスを取るのに苦労している。
本研究では、自由情報(FOI)要求を通じて、英国公共当局におけるAIによる文書再アクションの実装について検討する。
AI技術は、リアクションの課題に対する潜在的な解決策を提供するが、公共セクター組織における実際の実装は未定のままである。
本研究は、医療、政府、高等教育部門にわたる44の公的機関からの回答に基づいて、技術的可能性と組織的現実の間に大きなギャップがあることを明らかにする。
発見によると、AIの採用は極めて制限されており(AIツールを使用して報告された1つの権限のみ)、公式なリアクションポリシーが広く欠如している(50%が“保持されていない情報”を報告している)、スタッフのトレーニングに欠陥がある。
この研究は、効果的なAI実装のための3つの重要な障壁を特定している。
これらの知見は、技術自動化と有意義な人間の専門知識のバランスをとる社会技術的アプローチの必要性を浮き彫りにしている。
この研究は、英国公共当局におけるAIのリアクションプラクティスに関する最初の実証的な評価を提供し、透明性義務、データ保護要件、および公共行政における新興AI技術の間の複雑な相互作用をナビゲートする政策立案者を支援するための証拠を提供する。
関連論文リスト
- Responsible AI Adoption in the Public Sector: A Data-Centric Taxonomy of AI Adoption Challenges [0.0]
本研究では、政府におけるAI導入の責任を負うために、データ関連課題の分類法を開発する。
43の研究と21の専門的評価の体系的なレビューに基づいて、分類学は、技術的、組織的、環境的な側面において13の重要な課題を特定している。
分類学は、機関の圧力に付加され、リスクの高いAIデプロイメントの「症状」を表面化する診断ツールとして機能する。
論文 参考訳(メタデータ) (2025-09-29T18:42:09Z) - Never Compromise to Vulnerabilities: A Comprehensive Survey on AI Governance [211.5823259429128]
本研究は,本質的セキュリティ,デリバティブ・セキュリティ,社会倫理の3つの柱を中心に構築された,技術的・社会的次元を統合した包括的枠組みを提案する。
我々は,(1)防衛が進化する脅威に対して失敗する一般化ギャップ,(2)現実世界のリスクを無視する不適切な評価プロトコル,(3)矛盾する監視につながる断片的な規制,の3つの課題を特定する。
私たちのフレームワークは、研究者、エンジニア、政策立案者に対して、堅牢でセキュアなだけでなく、倫理的に整合性があり、公的な信頼に値するAIシステムを開発するための実用的なガイダンスを提供します。
論文 参考訳(メタデータ) (2025-08-12T09:42:56Z) - Who is Responsible When AI Fails? Mapping Causes, Entities, and Consequences of AI Privacy and Ethical Incidents [31.53910982726317]
我々は、202の現実世界のAIプライバシと倫理的インシデントを分析し、分類学を開発した。
この結果から, 組織的決定の貧弱さと法的な非コンプライアンスの悪影響が明らかとなった。
本研究は,政策立案者や実践者に対して有効なガイダンスを提供する。
論文 参考訳(メタデータ) (2025-03-28T21:57:38Z) - Open Problems in Technical AI Governance [102.19067750759471]
テクニカルAIガバナンス(Technical AI Governance)は、AIの効果的なガバナンスを支援するための技術分析とツールである。
本論文は、AIガバナンスへの貢献を目指す技術研究者や研究資金提供者のためのリソースとして意図されている。
論文 参考訳(メタデータ) (2024-07-20T21:13:56Z) - Position Paper: Technical Research and Talent is Needed for Effective AI Governance [0.0]
我々は、EU、米国、中国の公共機関が発行する政策文書を調査する。
我々は、提案された政策行動の実施に必要な技術的要件と、現在の技術状況とを、特定の領域で切り離すことを強調します。
我々の分析は、AIガバナンスにおけるAI/ML研究コミュニティのより緊密な統合を呼び起こします。
論文 参考訳(メタデータ) (2024-06-11T06:32:28Z) - AI Procurement Checklists: Revisiting Implementation in the Age of AI Governance [18.290959557311552]
AIの公共セクターの利用はここ10年で増加傾向にあるが、最近になって文化の世俗主義に参入する試みが始まっている。
分かりやすいが、政府におけるAIシステムの倫理的かつ効果的な展開を促進することは、非常にありふれた仕事だ。
論文 参考訳(メタデータ) (2024-04-23T01:45:38Z) - Explainability in AI Policies: A Critical Review of Communications,
Reports, Regulations, and Standards in the EU, US, and UK [1.5039745292757671]
我々は、EU、米国、英国における説明可能性に関する政策と標準に関する最初のテーマとギャップの分析を行う。
政策は、しばしば説明のための粗い概念と要求によって知らされる。
本稿では,AIシステムの規則における説明可能性への対処法を提案する。
論文 参考訳(メタデータ) (2023-04-20T07:53:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。