論文の概要: Policy-Driven AI in Dataspaces: Taxonomy, Explainability, and Pathways for Compliant Innovation
- arxiv url: http://arxiv.org/abs/2507.20014v2
- Date: Wed, 30 Jul 2025 08:46:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-31 11:57:45.833777
- Title: Policy-Driven AI in Dataspaces: Taxonomy, Explainability, and Pathways for Compliant Innovation
- Title(参考訳): データ空間におけるポリシー駆動型AI - 分類学、説明可能性、コンプライアンスイノベーションの道程
- Authors: Joydeep Chandra, Satyam Kumar Navneet,
- Abstract要約: 本稿では、プライバシ保護とポリシー対応AI技術に関する包括的なレビューを提供する。
プライバシレベル、影響、コンプライアンスの複雑さに基づいて、これらのテクニックを分類する新しい分類法を提案する。
技術的、倫理的、規制的な観点から見れば、この研究はデータ空間において信頼性があり、効率的で、コンプライアンスのよいAIシステムを開発するための基礎となる。
- 参考スコア(独自算出の注目度): 1.6766200616088744
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As AI-driven dataspaces become integral to data sharing and collaborative analytics, ensuring privacy, performance, and policy compliance presents significant challenges. This paper provides a comprehensive review of privacy-preserving and policy-aware AI techniques, including Federated Learning, Differential Privacy, Trusted Execution Environments, Homomorphic Encryption, and Secure Multi-Party Computation, alongside strategies for aligning AI with regulatory frameworks such as GDPR and the EU AI Act. We propose a novel taxonomy to classify these techniques based on privacy levels, performance impacts, and compliance complexity, offering a clear framework for practitioners and researchers to navigate trade-offs. Key performance metrics -- latency, throughput, cost overhead, model utility, fairness, and explainability -- are analyzed to highlight the multi-dimensional optimization required in dataspaces. The paper identifies critical research gaps, including the lack of standardized privacy-performance KPIs, challenges in explainable AI for federated ecosystems, and semantic policy enforcement amidst regulatory fragmentation. Future directions are outlined, proposing a conceptual framework for policy-driven alignment, automated compliance validation, standardized benchmarking, and integration with European initiatives like GAIA-X, IDS, and Eclipse EDC. By synthesizing technical, ethical, and regulatory perspectives, this work lays the groundwork for developing trustworthy, efficient, and compliant AI systems in dataspaces, fostering innovation in secure and responsible data-driven ecosystems.
- Abstract(参考訳): AI駆動型データ空間がデータ共有やコラボレーティブ分析に不可欠なものになると、プライバシ、パフォーマンス、ポリシー遵守の確保が大きな課題となる。
本稿では、フェデレートラーニング、微分プライバシ、信頼された実行環境、ホモモルフィック暗号化、セキュアなマルチパーティ計算を含む、プライバシ保護とポリシーを意識したAI技術に関する包括的なレビューと、GDPRやEU AI Actなどの規制フレームワークとAIを連携させる戦略について述べる。
プライバシレベル、パフォーマンスへの影響、コンプライアンスの複雑さに基づいて、これらのテクニックを分類する新たな分類法を提案し、実践者や研究者がトレードオフをナビゲートするための明確な枠組みを提供する。
レイテンシ、スループット、コストオーバーヘッド、モデルユーティリティ、公正性、説明可能性といった主要なパフォーマンス指標を分析して、データ空間で必要とされる多次元の最適化を強調します。
この論文は、標準化されたプライバシパフォーマンスKPIの欠如、フェデレーションされたエコシステムにおける説明可能なAIの課題、規制の断片化中のセマンティックポリシーの実施など、重要な研究ギャップを明らかにしている。
ポリシー駆動のアライメント,自動コンプライアンス検証,標準化されたベンチマーク,GAIA-XやIDS,Eclipse EDCといった欧州のイニシアティブとの統合といった,概念的なフレームワークが提案されている。
技術的、倫理的、規制的な視点を合成することによって、この研究は、データ空間における信頼性、効率的、コンプライアンスのAIシステムを開発し、セキュアで責任のあるデータ駆動エコシステムにおけるイノベーションを育むための基盤となる。
関連論文リスト
- Rethinking Data Protection in the (Generative) Artificial Intelligence Era [115.71019708491386]
現代の(生産的な)AIモデルやシステムに生じる多様な保護ニーズを捉える4段階の分類法を提案する。
当社のフレームワークは、データユーティリティとコントロールのトレードオフに関する構造化された理解を提供し、AIパイプライン全体にわたっています。
論文 参考訳(メタデータ) (2025-07-03T02:45:51Z) - HH4AI: A methodological Framework for AI Human Rights impact assessment under the EUAI ACT [1.7754875105502606]
論文では、自律性、データ、目標指向設計によって駆動される、AIの変革的な性質を強調している。
重要な課題は、業界全体での“ハイリスク”なAIシステムの定義と評価である。
リスクを分離し、評価するために設計されたゲートベースのフレームワークである、基本的権利影響評価(FRIA)手法を提案する。
論文 参考訳(メタデータ) (2025-03-23T19:10:14Z) - Regulating Ai In Financial Services: Legal Frameworks And Compliance Challenges [0.0]
金融サービスにおける人工知能(AI)規制の進展状況について考察する。
不正検出からアルゴリズム取引まで、AI駆動のプロセスがいかに効率性を高め、重大なリスクをもたらすかを強調している。
この研究は、欧州連合、米国、英国などの主要な司法管轄区域における規制のアプローチを比較している。
論文 参考訳(メタデータ) (2025-03-17T14:29:09Z) - Ethical and Scalable Automation: A Governance and Compliance Framework for Business Applications [0.0]
本稿では、AIが倫理的で、制御可能で、実行可能で、望ましいものであることを保証するフレームワークを紹介する。
異なるケーススタディは、学術と実践の両方の環境でAIを統合することで、このフレームワークを検証する。
論文 参考訳(メタデータ) (2024-09-25T12:39:28Z) - Human-Data Interaction Framework: A Comprehensive Model for a Future Driven by Data and Humans [0.0]
HDI(Human-Data Interaction)フレームワークは、現代のデジタル世界でのデータガバナンスと利用に関連する課題と倫理的問題に取り組むための重要なアプローチとなっている。
本稿では、組織がHDI原則をシームレスに統合するために必要な基本的な手順を概説する。
論文 参考訳(メタデータ) (2024-07-30T17:57:09Z) - Generative AI for Secure and Privacy-Preserving Mobile Crowdsensing [74.58071278710896]
生成AIは、学術分野と産業分野の両方から多くの注目を集めている。
セキュアでプライバシ保護のモバイルクラウドセンシング(SPPMCS)は、データ収集/取得に広く応用されている。
論文 参考訳(メタデータ) (2024-05-17T04:00:58Z) - Auditing and Generating Synthetic Data with Controllable Trust Trade-offs [54.262044436203965]
合成データセットとAIモデルを包括的に評価する総合監査フレームワークを導入する。
バイアスや差別の防止、ソースデータへの忠実性の確保、実用性、堅牢性、プライバシ保護などに焦点を当てている。
多様なユースケースにまたがる様々な生成モデルを監査することにより,フレームワークの有効性を実証する。
論文 参考訳(メタデータ) (2023-04-21T09:03:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。