論文の概要: Compliance Cards: Computational Artifacts for Automated AI Regulation Compliance
- arxiv url: http://arxiv.org/abs/2406.14758v1
- Date: Thu, 20 Jun 2024 22:07:15 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-24 15:22:05.772543
- Title: Compliance Cards: Computational Artifacts for Automated AI Regulation Compliance
- Title(参考訳): コンプライアンスカード: 自動AI規則準拠のための計算アーチファクト
- Authors: Bill Marino, Preslav Aleksandrov, Carwyn Rahman, Yulu Pi, Bill Shen, Rui-jie Yew, Nicholas D. Lane,
- Abstract要約: 我々は、AI Actコンプライアンス分析のための高度自動化システムを導入する。
ひとつは、AIシステムと大規模モデルの両方に関するコンプライアンス関連メタデータをキャプチャする、計算アーティファクトのインターロックセットです。
第2に、AIシステムやモデルがAI法に準拠しているかどうかをランタイム予測するために、これらの計算成果物間で自動分析アルゴリズムが動作します。
- 参考スコア(独自算出の注目度): 10.711968755473388
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As the artificial intelligence (AI) supply chain grows more complex, AI systems and models are increasingly likely to incorporate externally-sourced ingredients such as datasets and other models. In such cases, determining whether or not an AI system or model complies with the EU AI Act will require gathering compliance-related metadata about both the AI system or model at-large as well as those externally-supplied ingredients. There must then be an analysis that looks across all of this metadata to render a prediction about the compliance of the overall AI system or model. Up until now, this process has not been automated. Thus, it has not been possible to make real-time compliance determinations in scenarios where doing so would be advantageous, such as the iterative workflows of today's AI developers, search and acquisition of AI ingredients on communities like Hugging Face, federated and continuous learning, and more. To address this shortcoming, we introduce a highly automated system for AI Act compliance analysis. This system has two key elements. First is an interlocking set of computational artifacts that capture compliance-related metadata about both: (1) the AI system or model at-large; (2) any constituent ingredients such as datasets and models. Second is an automated analysis algorithm that operates across those computational artifacts to render a run-time prediction about whether or not the overall AI system or model complies with the AI Act. Working together, these elements promise to enhance and accelerate AI Act compliance assessments.
- Abstract(参考訳): 人工知能(AI)サプライチェーンが複雑化するにつれ、AIシステムやモデルは、データセットやその他のモデルのような外部ソースの要素を組み込む傾向にある。
そのような場合、AIシステムまたはモデルがEUのAI法に準拠するか否かを判断するには、AIシステムまたはモデルに関するコンプライアンス関連メタデータと、外部から供給される材料の両方を収集する必要がある。
そうすれば、すべてのメタデータを解析して、AIシステムまたはモデル全体のコンプライアンスに関する予測をレンダリングしなければなりません。
これまでのところ、このプロセスは自動化されていない。
したがって、今日のAI開発者の反復ワークフロー、Hugging FaceのようなコミュニティでのAI成分の検索と取得、フェデレーションと継続的学習など、そうするシナリオでリアルタイムのコンプライアンス決定を行うことはできない。
この欠点に対処するために、AI Actコンプライアンス分析のための高度に自動化されたシステムを導入する。
このシステムには2つの重要な要素がある。
1つは、(1)AIシステムまたはモデルat-large、(2)データセットやモデルなどの構成成分の両方に関するコンプライアンス関連メタデータをキャプチャする計算アーティファクトのインターロックセットである。
第二に、AIシステム全体やモデルがAI法に準拠しているかどうかをリアルタイムに予測する自動分析アルゴリズムである。
協力することで、これらの要素はAI Actコンプライアンスアセスメントを強化し、加速する。
関連論文リスト
- The Switch, the Ladder, and the Matrix: Models for Classifying AI Systems [0.0]
AI倫理の原則と実践の間にはまだギャップがある。
AI倫理を運用しようとする組織が直面する大きな障害のひとつは、明確に定義された材料スコープの欠如である。
論文 参考訳(メタデータ) (2024-07-07T12:16:01Z) - Adaptation of XAI to Auto-tuning for Numerical Libraries [0.0]
説明可能なAI(XAI)技術は、AIモデル開発の合理化と、ユーザへのAI出力の説明の負担軽減を目的として、注目を集めている。
本研究は,2つの異なるプロセスに統合されたAIモデルのXAIに着目し,数値計算を行う。
論文 参考訳(メタデータ) (2024-05-12T09:00:56Z) - Towards a general framework for improving the performance of classifiers using XAI methods [0.0]
本稿では,XAI手法を用いた事前学習型ディープラーニング(DL)分類器の性能向上のためのフレームワークを提案する。
オートエンコーダベースおよびエンコーダデコーダベースと呼び、それらの重要な側面について議論する。
論文 参考訳(メタデータ) (2024-03-15T15:04:20Z) - AI-Generated Images as Data Source: The Dawn of Synthetic Era [61.879821573066216]
生成AIは、現実世界の写真によく似た合成画像を作成する可能性を解き放った。
本稿では、これらのAI生成画像を新しいデータソースとして活用するという革新的な概念を探求する。
実際のデータとは対照的に、AI生成データには、未整合のアブリダンスやスケーラビリティなど、大きなメリットがある。
論文 参考訳(メタデータ) (2023-10-03T06:55:19Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z) - AI Maintenance: A Robustness Perspective [91.28724422822003]
我々は、AIライフサイクルにおけるロバストネスの課題を強調し、自動車のメンテナンスに類似させることで、AIのメンテナンスを動機付ける。
本稿では,ロバストネスリスクの検出と軽減を目的としたAIモデル検査フレームワークを提案する。
我々のAIメンテナンスの提案は、AIライフサイクル全体を通して堅牢性評価、状態追跡、リスクスキャン、モデル硬化、規制を促進する。
論文 参考訳(メタデータ) (2023-01-08T15:02:38Z) - AI Model Utilization Measurements For Finding Class Encoding Patterns [2.702380921892937]
この研究は、訓練された人工知能(AI)モデルの活用度測定を設計する際の問題に対処する。
この問題は、セキュリティおよび安全クリティカルなアプリケーションにおけるAIモデルの説明可能性の欠如によって動機付けられている。
論文 参考訳(メタデータ) (2022-12-12T02:18:10Z) - Enabling Automated Machine Learning for Model-Driven AI Engineering [60.09869520679979]
モデル駆動型ソフトウェアエンジニアリングとモデル駆動型AIエンジニアリングを実現するための新しいアプローチを提案する。
特に、私たちはAutomated MLをサポートし、AI集約システムの開発において、AIの深い知識のないソフトウェアエンジニアを支援します。
論文 参考訳(メタデータ) (2022-03-06T10:12:56Z) - Confident AI [0.0]
本稿では,人工知能(AI)と機械学習(ML)システムを,モデル予測と報告結果に対するアルゴリズムとユーザ信頼性の両方で設計する手段として,信頼AIを提案する。
Confident AIの4つの基本原則は、反復性、信頼性、十分性、適応性である。
論文 参考訳(メタデータ) (2022-02-12T02:26:46Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Data-Driven and SE-assisted AI Model Signal-Awareness Enhancement and
Introspection [61.571331422347875]
モデルの信号認識性を高めるためのデータ駆動型手法を提案する。
コード複雑性のSE概念とカリキュラム学習のAIテクニックを組み合わせる。
モデル信号認識における最大4.8倍の改善を実現している。
論文 参考訳(メタデータ) (2021-11-10T17:58:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。