論文の概要: Compliance Cards: Automated EU AI Act Compliance Analyses amidst a Complex AI Supply Chain
- arxiv url: http://arxiv.org/abs/2406.14758v2
- Date: Thu, 12 Sep 2024 20:19:38 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-16 22:57:51.459171
- Title: Compliance Cards: Automated EU AI Act Compliance Analyses amidst a Complex AI Supply Chain
- Title(参考訳): コンプライアンスカード:複雑なAIサプライチェーンの中での、EUのAIコンプライアンス法の自動解析
- Authors: Bill Marino, Yaqub Chaudhary, Yulu Pi, Rui-Jie Yew, Preslav Aleksandrov, Carwyn Rahman, William F. Shen, Isaac Robinson, Nicholas D. Lane,
- Abstract要約: 我々は、複雑なAIサプライチェーンの中で、プロバイダ側AIAコンプライアンス分析のための完全なシステムを導入する。
ひとつは、AIA固有のメタデータをキャプチャする、計算的でマルチステークホルダーの透明性アーティファクトのインターロックセットです。
第2のアルゴリズムは、AIシステムやモデルがAIAに準拠しているかどうかをリアルタイムで予測するアルゴリズムである。
- 参考スコア(独自算出の注目度): 9.991293429067065
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As the AI supply chain grows more complex, AI systems and models are increasingly likely to incorporate multiple internally- or externally-sourced components such as datasets and (pre-trained) models. In such cases, determining whether or not the aggregate AI system or model complies with the EU AI Act (AIA) requires a multi-step process in which compliance-related information about both the AI system or model and all its component parts is: (1) gathered, potentially from multiple arms-length sources; (2) harmonized, if necessary; (3) inputted into an analysis that looks across all of it to render a compliance prediction. Because this process is so complex and time-consuming, it threatens to overburden the limited compliance resources of the AI providers (i.e., developers) who bear much of the responsibility for complying with the AIA. It also renders rapid or real-time compliance analyses infeasible in many AI development scenarios where they would be beneficial to providers. To address these shortcomings, we introduce a complete system for automating provider-side AIA compliance analyses amidst a complex AI supply chain. This system has two key elements. First is an interlocking set of computational, multi-stakeholder transparency artifacts that capture AIA-specific metadata about both: (1) the provider's overall AI system or model; and (2) the datasets and pre-trained models it incorporates as components. Second is an algorithm that operates across all those artifacts to render a real-time prediction about whether or not the aggregate AI system or model complies with the AIA. All told, this system promises to dramatically facilitate and democratize provider-side AIA compliance analyses (and, perhaps by extension, provider-side AIA compliance).
- Abstract(参考訳): AIサプライチェーンがより複雑になるにつれて、AIシステムやモデルは、データセットや(事前訓練された)モデルなど、複数の内部または外部ソースコンポーネントを組み込む傾向にある。
そのような場合、総合的なAIシステムまたはモデルがEU AI Act(AIA)に準拠しているかどうかを判断するには、(1)AIシステムまたはモデルとその構成部分に関するコンプライアンス関連情報が、複数の武器長ソースから収集される可能性があること、(2)必要に応じて調和されたこと、(3)コンプライアンス予測をレンダリングするために、そのすべてを見渡せる分析に入力される、多段階プロセスが必要である。
このプロセスは非常に複雑で時間を要するため、AIAに準拠する責任の多くを負うAIプロバイダ(つまり開発者)の限られたコンプライアンスリソースを過大評価する恐れがある。
また、プロバイダにとって有益なAI開発シナリオの多くにおいて、迅速またはリアルタイムのコンプライアンス分析が実現不可能であることも示している。
これらの欠点に対処するために、複雑なAIサプライチェーンの中で、プロバイダ側のAIAコンプライアンス分析を自動化するための完全なシステムを導入する。
このシステムには2つの重要な要素がある。
まず第一に、AIA固有のメタデータをキャプチャする計算的でマルチステークホルダーの透過的なアーティファクトのインターロックセットである。(1)プロバイダのAIシステムまたはモデル、(2)コンポーネントとして組み込んだデータセットと事前トレーニングされたモデル。
第2のアルゴリズムは、AIシステムやモデルがAIAに準拠しているかどうかをリアルタイムで予測するアルゴリズムである。
いずれにせよ、このシステムは、プロバイダ側のAIAコンプライアンス分析を劇的に促進し、民主化することを約束している(そしておそらくは、プロバイダ側のAIAコンプライアンスによって)。
関連論文リスト
- Collaborative AI in Sentiment Analysis: System Architecture, Data Prediction and Deployment Strategies [3.3374611485861116]
大規模言語モデル(LLM)に基づく人工知能技術は、特に感情分析においてゲームチェンジャーとなっている。
しかし、複雑なマルチモーダルデータを処理するための多様なAIモデルの統合と、それに伴う機能抽出の高コストは、大きな課題を呈している。
本研究では,様々なAIシステムにまたがるタスクを効率的に分散・解決するための協調型AIフレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-17T06:14:34Z) - Generative Diffusion-based Contract Design for Efficient AI Twins Migration in Vehicular Embodied AI Networks [55.15079732226397]
Embodied AIは、サイバースペースと物理空間のギャップを埋める、急速に進歩する分野だ。
VEANETでは、組み込まれたAIツインが車載AIアシスタントとして機能し、自律運転をサポートするさまざまなタスクを実行する。
論文 参考訳(メタデータ) (2024-10-02T02:20:42Z) - The AI-Native Software Development Lifecycle: A Theoretical and Practical New Methodology [0.0]
このホワイトペーパーは、完全にAIネイティブなSDLCの出現を提案する。
本稿では,AIを終端から終端まで組み込んだ従来のV-モデルの適応であるV-バウンスモデルを紹介する。
このモデルは、AIが実装エンジンとして機能するバリデータや検証者に至るまで、主要な実装者から人間の役割を再定義する。
論文 参考訳(メタデータ) (2024-08-06T19:30:49Z) - Generative AI Agent for Next-Generation MIMO Design: Fundamentals, Challenges, and Vision [76.4345564864002]
次世代の多重入力多重出力(MIMO)はインテリジェントでスケーラブルであることが期待される。
本稿では、カスタマイズされた特殊コンテンツを生成することができる生成型AIエージェントの概念を提案する。
本稿では、生成AIエージェントをパフォーマンス分析に活用することの有効性を示す2つの説得力のあるケーススタディを示す。
論文 参考訳(メタデータ) (2024-04-13T02:39:36Z) - Testing autonomous vehicles and AI: perspectives and challenges from cybersecurity, transparency, robustness and fairness [53.91018508439669]
この研究は、人工知能を自律走行車(AV)に統合する複雑さを探求する
AIコンポーネントがもたらした課題と、テスト手順への影響を調べます。
本稿は、重要な課題を特定し、AV技術におけるAIの研究・開発に向けた今後の方向性を提案する。
論文 参考訳(メタデータ) (2024-02-21T08:29:42Z) - Explainable AI for Safe and Trustworthy Autonomous Driving: A Systematic Review [12.38351931894004]
本稿では,安全かつ信頼性の高い自動運転のための説明可能な手法に関する,最初の体系的な文献レビューを紹介する。
我々は、ADにおける安全で信頼性の高いAIに対するXAIの5つの重要な貢献を特定し、それらは解釈可能な設計、解釈可能な代理モデル、解釈可能なモニタリング、補助的な説明、解釈可能な検証である。
我々は、これらのコントリビューションを統合するためにSafeXと呼ばれるモジュラーフレームワークを提案し、同時にAIモデルの安全性を確保しながら、ユーザへの説明提供を可能にした。
論文 参考訳(メタデータ) (2024-02-08T09:08:44Z) - Cloud-based XAI Services for Assessing Open Repository Models Under Adversarial Attacks [7.500941533148728]
計算コンポーネントとアセスメントタスクをパイプラインにカプセル化するクラウドベースのサービスフレームワークを提案する。
我々は、AIモデルの5つの品質特性を評価するために、XAIサービスの応用を実証する。
論文 参考訳(メタデータ) (2024-01-22T00:37:01Z) - Towards a Responsible AI Metrics Catalogue: A Collection of Metrics for
AI Accountability [28.67753149592534]
本研究は,包括的メトリクスカタログへの取り組みを導入することで,説明責任のギャップを埋めるものである。
我々のカタログは、手続き的整合性を支えるプロセスメトリクス、必要なツールやフレームワークを提供するリソースメトリクス、AIシステムのアウトプットを反映する製品メトリクスを記述しています。
論文 参考訳(メタデータ) (2023-11-22T04:43:16Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Data-Driven and SE-assisted AI Model Signal-Awareness Enhancement and
Introspection [61.571331422347875]
モデルの信号認識性を高めるためのデータ駆動型手法を提案する。
コード複雑性のSE概念とカリキュラム学習のAIテクニックを組み合わせる。
モデル信号認識における最大4.8倍の改善を実現している。
論文 参考訳(メタデータ) (2021-11-10T17:58:18Z) - Towards an Interface Description Template for AI-enabled Systems [77.34726150561087]
再利用(Reuse)は、システムアーキテクチャを既存のコンポーネントでインスタンス化しようとする、一般的なシステムアーキテクチャのアプローチである。
現在、コンポーネントが当初目的としていたものと異なるシステムで運用する可搬性を評価するために必要な情報の選択をガイドするフレームワークは存在しない。
我々は、AI対応コンポーネントの主情報をキャプチャするインターフェイス記述テンプレートの確立に向けて、現在進行中の作業について述べる。
論文 参考訳(メタデータ) (2020-07-13T20:30:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。