論文の概要: MQG4AI Towards Responsible High-risk AI - Illustrated for Transparency Focusing on Explainability Techniques
- arxiv url: http://arxiv.org/abs/2502.11889v1
- Date: Mon, 17 Feb 2025 15:14:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-18 14:14:01.487666
- Title: MQG4AI Towards Responsible High-risk AI - Illustrated for Transparency Focusing on Explainability Techniques
- Title(参考訳): MQG4AIがレスポンシブルなハイリスクAIを目指して - 説明可能性技術に着目した透明性を図示した
- Authors: Miriam Elia, Alba Maria Lopez, Katherin Alexandra Corredor, Bernhard Bauer, Esteban Garcia-Cuesta,
- Abstract要約: 本稿では,一般的なガイドラインとユースケース固有の要件とのギャップを埋める,AIライフサイクル計画のためのアプローチを提案する。
我々の研究は、Responsible AI(RAI)を実装するための実用的なツールの開発に貢献することを目的としている。
- 参考スコア(独自算出の注目度): 1.1105279729898387
- License:
- Abstract: As artificial intelligence (AI) systems become increasingly integrated into critical domains, ensuring their responsible design and continuous development is imperative. Effective AI quality management (QM) requires tools and methodologies that address the complexities of the AI lifecycle. In this paper, we propose an approach for AI lifecycle planning that bridges the gap between generic guidelines and use case-specific requirements (MQG4AI). Our work aims to contribute to the development of practical tools for implementing Responsible AI (RAI) by aligning lifecycle planning with technical, ethical and regulatory demands. Central to our approach is the introduction of a flexible and customizable Methodology based on Quality Gates, whose building blocks incorporate RAI knowledge through information linking along the AI lifecycle in a continuous manner, addressing AIs evolutionary character. For our present contribution, we put a particular emphasis on the Explanation stage during model development, and illustrate how to align a guideline to evaluate the quality of explanations with MQG4AI, contributing to overall Transparency.
- Abstract(参考訳): 人工知能(AI)システムが重要領域にますます統合されるにつれて、その責任ある設計と継続的な開発が不可欠である。
効果的なAI品質管理(QM)には、AIライフサイクルの複雑さに対処するツールと方法論が必要である。
本稿では,一般的なガイドラインとユースケース特化要件(MQG4AI)のギャップを埋めるAIライフサイクル計画手法を提案する。
我々の研究は、ライフサイクル計画と技術的、倫理的、規制的な要求を整合させることで、責任あるAI(RAI)を実装するための実践的なツールの開発に貢献することを目的としています。
私たちのアプローチの中心は、品質ゲートに基づく柔軟でカスタマイズ可能な方法論の導入です。そのビルディングブロックは、AIの進化的特徴に対処する、継続的な方法でAIライフサイクルに沿ってリンクする情報を通じて、AI知識を組み込むものです。
今回のコントリビューションでは、モデル開発中の説明段階に特に重点を置いて、説明の質を評価するためのガイドラインをMQG4AIと整合させる方法について説明し、全体的な透明性に寄与する。
関連論文リスト
- Converging Paradigms: The Synergy of Symbolic and Connectionist AI in LLM-Empowered Autonomous Agents [55.63497537202751]
コネクショニストと象徴的人工知能(AI)の収束を探求する記事
従来、コネクショナリストAIはニューラルネットワークにフォーカスし、シンボリックAIはシンボリック表現とロジックを強調していた。
大型言語モデル(LLM)の最近の進歩は、人間の言語をシンボルとして扱う際のコネクショナリストアーキテクチャの可能性を強調している。
論文 参考訳(メタデータ) (2024-07-11T14:00:53Z) - The Foundations of Computational Management: A Systematic Approach to
Task Automation for the Integration of Artificial Intelligence into Existing
Workflows [55.2480439325792]
本稿では,タスク自動化の体系的アプローチである計算管理を紹介する。
この記事では、ワークフロー内でAIを実装するプロセスを開始するための、ステップバイステップの手順を3つ紹介する。
論文 参考訳(メタデータ) (2024-02-07T01:45:14Z) - A Vision for Operationalising Diversity and Inclusion in AI [5.4897262701261225]
本研究は,AIエコシステムにおける多様性と包摂性(D&I)の倫理的命令の運用を想定することを目的とする。
AI開発における重要な課題は、D&Iの原則を効果的に運用することである。
本稿では,ジェネレーティブAI(GenAI)を用いたペルソナシミュレーションを活用したツール開発のためのフレームワークの構想を提案する。
論文 参考訳(メタデータ) (2023-12-11T02:44:39Z) - Towards a Responsible AI Metrics Catalogue: A Collection of Metrics for
AI Accountability [28.67753149592534]
本研究は,包括的メトリクスカタログへの取り組みを導入することで,説明責任のギャップを埋めるものである。
我々のカタログは、手続き的整合性を支えるプロセスメトリクス、必要なツールやフレームワークを提供するリソースメトリクス、AIシステムのアウトプットを反映する製品メトリクスを記述しています。
論文 参考訳(メタデータ) (2023-11-22T04:43:16Z) - Responsible Design Patterns for Machine Learning Pipelines [10.184056098238765]
AI倫理には、AIシステムのライフサイクル全体に倫理的原則を適用することが含まれる。
これは、バイアスなどのAIに関連する潜在的なリスクと害を軽減するために不可欠である。
この目標を達成するために、責任あるデザインパターン(RDP)は機械学習(ML)パイプラインに不可欠である。
論文 参考訳(メタデータ) (2023-05-31T15:47:12Z) - AI Maintenance: A Robustness Perspective [91.28724422822003]
我々は、AIライフサイクルにおけるロバストネスの課題を強調し、自動車のメンテナンスに類似させることで、AIのメンテナンスを動機付ける。
本稿では,ロバストネスリスクの検出と軽減を目的としたAIモデル検査フレームワークを提案する。
我々のAIメンテナンスの提案は、AIライフサイクル全体を通して堅牢性評価、状態追跡、リスクスキャン、モデル硬化、規制を促進する。
論文 参考訳(メタデータ) (2023-01-08T15:02:38Z) - Responsible AI Pattern Catalogue: A Collection of Best Practices for AI
Governance and Engineering [20.644494592443245]
MLR(Multivocal Literature Review)の結果に基づく応答性AIパターンカタログを提案する。
原則やアルゴリズムのレベルにとどまらず、私たちは、AIシステムのステークホルダーが実際に行なえるパターンに注目して、開発済みのAIシステムがガバナンスとエンジニアリングライフサイクル全体を通して責任を負うようにします。
論文 参考訳(メタデータ) (2022-09-12T00:09:08Z) - Designing an AI-Driven Talent Intelligence Solution: Exploring Big Data
to extend the TOE Framework [0.0]
本研究の目的は、人材管理問題に対処するAI指向のアーティファクトを開発するための新しい要件を特定することである。
構造化機械学習技術を用いて実験的な研究を行うための設計科学手法が採用されている。
論文 参考訳(メタデータ) (2022-07-25T10:42:50Z) - Enabling Automated Machine Learning for Model-Driven AI Engineering [60.09869520679979]
モデル駆動型ソフトウェアエンジニアリングとモデル駆動型AIエンジニアリングを実現するための新しいアプローチを提案する。
特に、私たちはAutomated MLをサポートし、AI集約システムの開発において、AIの深い知識のないソフトウェアエンジニアを支援します。
論文 参考訳(メタデータ) (2022-03-06T10:12:56Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。