論文の概要: Model Reporting for Certifiable AI: A Proposal from Merging EU
Regulation into AI Development
- arxiv url: http://arxiv.org/abs/2307.11525v1
- Date: Fri, 21 Jul 2023 12:13:54 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-24 12:44:17.825362
- Title: Model Reporting for Certifiable AI: A Proposal from Merging EU
Regulation into AI Development
- Title(参考訳): 認定AIのためのモデルレポート:EU規制をAI開発に統合する提案
- Authors: Danilo Brajovic, Niclas Renner, Vincent Philipp Goebels, Philipp
Wagner, Benjamin Fresz, Martin Biller, Mara Klaeb, Janika Kutz, Jens
Neuhuettler, Marco F. Huber
- Abstract要約: ExplainableとSafe AIの大きな進歩にもかかわらず、実践者はAIの安全性に関する規制と標準の欠如に悩まされている。
我々は、開発プロセス全体を通してAIアプリケーションを文書化するための標準化されたカードの使用を提案する。
- 参考スコア(独自算出の注目度): 2.9620297386658185
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite large progress in Explainable and Safe AI, practitioners suffer from
a lack of regulation and standards for AI safety. In this work we merge recent
regulation efforts by the European Union and first proposals for AI guidelines
with recent trends in research: data and model cards. We propose the use of
standardized cards to document AI applications throughout the development
process. Our main contribution is the introduction of use-case and operation
cards, along with updates for data and model cards to cope with regulatory
requirements. We reference both recent research as well as the source of the
regulation in our cards and provide references to additional support material
and toolboxes whenever possible. The goal is to design cards that help
practitioners develop safe AI systems throughout the development process, while
enabling efficient third-party auditing of AI applications, being easy to
understand, and building trust in the system. Our work incorporates insights
from interviews with certification experts as well as developers and
individuals working with the developed AI applications.
- Abstract(参考訳): ExplainableとSafe AIの大きな進歩にもかかわらず、実践者はAI安全性の規制と標準の欠如に悩まされている。
この作業では、欧州連合(EU)による最近の規制活動と、AIガイドラインの最初の提案と、最近の研究動向であるデータとモデルカードを統合する。
我々は、開発プロセス全体を通してAIアプリケーションを文書化するための標準化されたカードの使用を提案する。
主なコントリビューションは、ユースケースとオペレーションカードの導入、および規制要件に対処するためのデータとモデルカードのアップデートです。
我々は,最近の研究と,カードにおける規制の源泉の両方を参考にし,可能な限り追加のサポート材料やツールボックスへの参照を提供する。
目標は、開発プロセスを通じて安全なaiシステムを開発するためのカードの設計と、aiアプリケーションの効率的なサードパーティ監査を可能にし、理解しやすく、システムへの信頼を構築することにある。
私たちの研究には、認定専門家と、開発中のAIアプリケーションに取り組んでいる開発者や個人とのインタビューからの洞察が含まれています。
関連論文リスト
- AI Cards: Towards an Applied Framework for Machine-Readable AI and Risk Documentation Inspired by the EU AI Act [2.1897070577406734]
その重要性にもかかわらず、AI法に沿ったAIとリスクドキュメントの作成を支援するための標準やガイドラインが欠如している。
提案するAIカードは,AIシステムの意図した使用を表現するための,新しい総合的なフレームワークである。
論文 参考訳(メタデータ) (2024-06-26T09:51:49Z) - The Ethics of Advanced AI Assistants [53.89899371095332]
本稿では,高度AIアシスタントがもたらす倫理的・社会的リスクについて論じる。
我々は、高度なAIアシスタントを自然言語インタフェースを持つ人工知能エージェントとして定義し、ユーザに代わってアクションのシーケンスを計画し実行することを目的としている。
先進的なアシスタントの社会規模での展開を考察し、協力、株式とアクセス、誤情報、経済的影響、環境、先進的なAIアシスタントの評価方法に焦点をあてる。
論文 参考訳(メタデータ) (2024-04-24T23:18:46Z) - Particip-AI: A Democratic Surveying Framework for Anticipating Future AI Use Cases, Harms and Benefits [54.648819983899614]
汎用AIは、一般大衆がAIを使用してそのパワーを利用するための障壁を下げたようだ。
本稿では,AI利用事例とその影響を推測し,評価するためのフレームワークであるPartICIP-AIを紹介する。
論文 参考訳(メタデータ) (2024-03-21T19:12:37Z) - Use case cards: a use case reporting framework inspired by the European
AI Act [0.0]
ユースケースの文書化のための新しいフレームワークを提案する。
他のドキュメンテーションの方法論とは異なり、私たちはAIシステムの目的と運用に重点を置いています。
提案された枠組みは、関連するEU政策の専門家と科学者のチームを含む共同設計プロセスの結果である。
論文 参考訳(メタデータ) (2023-06-23T15:47:19Z) - AI Usage Cards: Responsibly Reporting AI-generated Content [25.848910414962337]
ChatGPTのようなAIシステムが、人間による作業と区別できないコンテンツを生成できることを考えると、この技術の責任を負うことが懸念される。
我々は、AIの責任ある使用を定義するために、透明性、完全性、説明責任からなる3次元モデルを提案する。
第2に、科学研究におけるAIの使用を報告するための標準化された方法である「AI Usage Cards」を紹介する。
論文 参考訳(メタデータ) (2023-02-16T08:41:31Z) - Enabling Automated Machine Learning for Model-Driven AI Engineering [60.09869520679979]
モデル駆動型ソフトウェアエンジニアリングとモデル駆動型AIエンジニアリングを実現するための新しいアプローチを提案する。
特に、私たちはAutomated MLをサポートし、AI集約システムの開発において、AIの深い知識のないソフトウェアエンジニアを支援します。
論文 参考訳(メタデータ) (2022-03-06T10:12:56Z) - Exploring the Assessment List for Trustworthy AI in the Context of
Advanced Driver-Assistance Systems [5.386962356892352]
欧州委員会は専門家をAI専門家グループ(AI-HLEG)に任命した
AI-HLEGは、信頼できるAIを(1)合法的、2)倫理的、3)堅牢で指定された7つの重要な要件と定義しました。
本稿では,ALTAIを高度運転支援システムの開発プロジェクトに適用した実例について述べる。
論文 参考訳(メタデータ) (2021-03-04T21:48:11Z) - Behavioral Use Licensing for Responsible AI [11.821476868900506]
我々は、ソフトウェアとコードに対する法的に強制可能な行動利用条件を可能にするために、ライセンスの使用を提唱する。
我々は、既存の責任あるAIガイドラインに従って、ライセンスがどのように実装されるかを考えます。
論文 参考訳(メタデータ) (2020-11-04T09:23:28Z) - Trustworthy AI Inference Systems: An Industry Research View [58.000323504158054]
我々は、信頼できるAI推論システムの設計、展開、運用にアプローチするための業界調査ビューを提供する。
信頼された実行環境を用いたAIシステムの機会と課題を強調します。
我々は,産業,アカデミック,政府研究者のグローバルな集団的注意を必要とする,さらなる発展の分野を概説する。
論文 参考訳(メタデータ) (2020-08-10T23:05:55Z) - A Methodology for Creating AI FactSheets [67.65802440158753]
本稿では、FactSheetsと呼ぶAIドキュメントの形式を作るための方法論について述べる。
方法論の各ステップの中で、検討すべき問題と探求すべき質問について説明する。
この方法論は、透明なAIドキュメントの採用を加速する。
論文 参考訳(メタデータ) (2020-06-24T15:08:59Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。