論文の概要: How to Assess Trustworthy AI in Practice
- arxiv url: http://arxiv.org/abs/2206.09887v2
- Date: Tue, 28 Jun 2022 14:23:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 17:52:10.648480
- Title: How to Assess Trustworthy AI in Practice
- Title(参考訳): 信頼できるAIを実践で評価する方法
- Authors: Roberto V. Zicari, Julia Amann, Fr\'ed\'erick Bruneault, Megan Coffee,
Boris D\"udder, Eleanore Hickman, Alessio Gallucci, Thomas Krendl Gilbert,
Thilo Hagendorff, Irmhild van Halem, Elisabeth Hildt, Sune Holm, Georgios
Kararigas, Pedro Kringen, Vince I. Madai, Emilie Wiinblad Mathez, Jesmin
Jahan Tithi, Dennis Vetter, Magnus Westerlund, Renee Wurth
- Abstract要約: Z-Inspection$smallcircledR$は、AIベースの技術の信頼性を評価するための総合的なプロセスである。
欧州連合の高レベルエキスパートグループ(EU HLEG)のガイドラインを信頼に値するAIに使用。
- 参考スコア(独自算出の注目度): 0.22740899647050103
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This report is a methodological reflection on
Z-Inspection$^{\small{\circledR}}$. Z-Inspection$^{\small{\circledR}}$ is a
holistic process used to evaluate the trustworthiness of AI-based technologies
at different stages of the AI lifecycle. It focuses, in particular, on the
identification and discussion of ethical issues and tensions through the
elaboration of socio-technical scenarios. It uses the general European Union's
High-Level Expert Group's (EU HLEG) guidelines for trustworthy AI. This report
illustrates for both AI researchers and AI practitioners how the EU HLEG
guidelines for trustworthy AI can be applied in practice. We share the lessons
learned from conducting a series of independent assessments to evaluate the
trustworthiness of AI systems in healthcare. We also share key recommendations
and practical suggestions on how to ensure a rigorous trustworthy AI assessment
throughout the life-cycle of an AI system.
- Abstract(参考訳): 本報告は Z-Inspection$^{\small{\circledR}}$ に関する方法論的考察である。
Z-Inspection$^{\small{\circledR}}$は、AIライフサイクルの異なる段階におけるAIベースの技術の信頼性を評価するために使用される総合的なプロセスである。
特に、社会技術的シナリオの解明を通じて倫理的問題と緊張の識別と議論に焦点を当てている。
欧州連合の高レベルエキスパートグループ(EU HLEG)のガイドラインを信頼に値するAIに用いている。
このレポートは、信頼できるAIのためのEU HLEGガイドラインを実際に適用する方法について、AI研究者とAI実践者の両方に説明します。
医療におけるaiシステムの信頼性を評価するために、一連の独立した評価を行うことから学んだ教訓を共有します。
また、AIシステムのライフサイクルを通じて、厳格な信頼できるAIアセスメントを確保するための重要な推奨事項と実践的な提案を共有します。
関連論文リスト
- Engineering Trustworthy AI: A Developer Guide for Empirical Risk Minimization [53.80919781981027]
信頼できるAIのための重要な要件は、経験的リスク最小化のコンポーネントの設計選択に変換できる。
私たちは、AIの信頼性の新たな標準を満たすAIシステムを構築するための実用的なガイダンスを提供したいと思っています。
論文 参考訳(メタデータ) (2024-10-25T07:53:32Z) - Ethical AI Governance: Methods for Evaluating Trustworthy AI [0.552480439325792]
信頼できる人工知能(TAI)は、人間の価値観に沿った倫理を統合する。
TAI評価は、AI開発と使用における倫理的基準と安全性を保証することを目的としている。
論文 参考訳(メタデータ) (2024-08-28T09:25:50Z) - Responsible Artificial Intelligence: A Structured Literature Review [0.0]
EUは最近、AIへの信頼の必要性を強調するいくつかの出版物を公表した。
これは国際規制の緊急の必要性を浮き彫りにする。
本稿は、私たちの知る限り、責任あるAIの最初の統一された定義を包括的かつ包括的に紹介する。
論文 参考訳(メタデータ) (2024-03-11T17:01:13Z) - Testing autonomous vehicles and AI: perspectives and challenges from cybersecurity, transparency, robustness and fairness [53.91018508439669]
この研究は、人工知能を自律走行車(AV)に統合する複雑さを探求する
AIコンポーネントがもたらした課題と、テスト手順への影響を調べます。
本稿は、重要な課題を特定し、AV技術におけるAIの研究・開発に向けた今後の方向性を提案する。
論文 参考訳(メタデータ) (2024-02-21T08:29:42Z) - POLARIS: A framework to guide the development of Trustworthy AI systems [3.02243271391691]
ハイレベルなAI倫理原則と、AI専門家のための低レベルな具体的なプラクティスの間には、大きなギャップがある。
我々は、理論と実践のギャップを埋めるために設計された、信頼に値するAIのための新しい総合的なフレームワークを開発する。
私たちの目標は、AIプロフェッショナルが信頼できるAIの倫理的側面を確実にナビゲートできるようにすることです。
論文 参考訳(メタデータ) (2024-02-08T01:05:16Z) - FUTURE-AI: International consensus guideline for trustworthy and deployable artificial intelligence in healthcare [73.78776682247187]
医療AIに関連する技術的、臨床的、倫理的、法的リスクに関する懸念が高まっている。
この研究は、Future-AIガイドラインを、医療における信頼できるAIツールの開発とデプロイを導くための最初の国際コンセンサスフレームワークとして説明している。
論文 参考訳(メタデータ) (2023-08-11T10:49:05Z) - RE-centric Recommendations for the Development of Trustworthy(er)
Autonomous Systems [4.268504966623082]
EU AI Act(AIA)ガイドラインを遵守し、AIシステムの開発と実装は、間もなくEU内で必須となる。
実践者は、AIシステム開発中に倫理を運用するための実行可能な指示を欠いている。
異なる倫理的ガイドラインの文献レビューでは、対処された原則とそれらを記述するために使用される用語の矛盾が明らかになった。
論文 参考訳(メタデータ) (2023-05-29T11:57:07Z) - The Role of AI in Drug Discovery: Challenges, Opportunities, and
Strategies [97.5153823429076]
この分野でのAIのメリット、課題、欠点についてレビューする。
データ拡張、説明可能なAIの使用、従来の実験手法とAIの統合についても論じている。
論文 参考訳(メタデータ) (2022-12-08T23:23:39Z) - Metaethical Perspectives on 'Benchmarking' AI Ethics [81.65697003067841]
ベンチマークは、人工知能(AI)研究の技術的進歩を測定するための基盤とみられている。
AIの顕著な研究領域は倫理であり、現在、ベンチマークのセットも、AIシステムの「倫理性」を測定する一般的な方法もない。
我々は、現在と将来のAIシステムのアクションを考えるとき、倫理よりも「価値」について話す方が理にかなっていると論じる。
論文 参考訳(メタデータ) (2022-04-11T14:36:39Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - A Framework for Ethical AI at the United Nations [0.0]
本稿では、人工知能(AI)における倫理的懸念と、それらのリスクを軽減するために必要な枠組みの概要を提供する。
これは、国連(UN)におけるAIの開発と利用が当社の倫理的価値観に合致するようにするための実用的な道筋を提案します。
論文 参考訳(メタデータ) (2021-04-09T23:44:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。