論文の概要: RE-centric Recommendations for the Development of Trustworthy(er)
Autonomous Systems
- arxiv url: http://arxiv.org/abs/2306.01774v2
- Date: Fri, 5 Jan 2024 09:34:46 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-08 18:27:42.486020
- Title: RE-centric Recommendations for the Development of Trustworthy(er)
Autonomous Systems
- Title(参考訳): 信頼に値する(er)自律システム開発のための再中心的勧告
- Authors: Krishna Ronanki, Beatriz Cabrero-Daniel, Jennifer Horkoff, Christian
Berger
- Abstract要約: EU AI Act(AIA)ガイドラインを遵守し、AIシステムの開発と実装は、間もなくEU内で必須となる。
実践者は、AIシステム開発中に倫理を運用するための実行可能な指示を欠いている。
異なる倫理的ガイドラインの文献レビューでは、対処された原則とそれらを記述するために使用される用語の矛盾が明らかになった。
- 参考スコア(独自算出の注目度): 4.268504966623082
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Complying with the EU AI Act (AIA) guidelines while developing and
implementing AI systems will soon be mandatory within the EU. However,
practitioners lack actionable instructions to operationalise ethics during AI
systems development. A literature review of different ethical guidelines
revealed inconsistencies in the principles addressed and the terminology used
to describe them. Furthermore, requirements engineering (RE), which is
identified to foster trustworthiness in the AI development process from the
early stages was observed to be absent in a lot of frameworks that support the
development of ethical and trustworthy AI. This incongruous phrasing combined
with a lack of concrete development practices makes trustworthy AI development
harder. To address this concern, we formulated a comparison table for the
terminology used and the coverage of the ethical AI principles in major ethical
AI guidelines. We then examined the applicability of ethical AI development
frameworks for performing effective RE during the development of trustworthy AI
systems. A tertiary review and meta-analysis of literature discussing ethical
AI frameworks revealed their limitations when developing trustworthy AI. Based
on our findings, we propose recommendations to address such limitations during
the development of trustworthy AI.
- Abstract(参考訳): EU AI Act(AIA)ガイドラインを遵守し、AIシステムの開発と実装は、間もなくEU内で必須となる。
しかし、実践者はAIシステム開発中に倫理を運用するための実行可能な指示を欠いている。
異なる倫理ガイドラインに関する文献レビューで、対処された原則とそれらを記述するのに使われる用語の不一致が明らかになった。
さらに、AI開発プロセスの信頼性を早期から向上するために特定される要件エンジニアリング(RE)は、倫理的で信頼できるAIの開発を支援する多くのフレームワークで欠落していることが観察された。
この不一致と具体的な開発プラクティスの欠如が相まって、信頼できるai開発が難しくなる。
この懸念に対処するため、我々は主要な倫理的AIガイドラインにおいて使用される用語の比較表と倫理的AI原則のカバレッジを定式化した。
次に、信頼性の高いAIシステムの開発において、効果的なREを行うための倫理的AI開発フレームワークの適用性を検討した。
倫理的AIフレームワークについて議論する文献の3次レビューとメタ分析は、信頼できるAIを開発する際の限界を明らかにした。
本研究は,信頼性の高いAIの開発において,このような制約に対処するための勧告を提案する。
関連論文リスト
- Responsible Artificial Intelligence: A Structured Literature Review [0.0]
EUは最近、AIへの信頼の必要性を強調するいくつかの出版物を公表した。
これは国際規制の緊急の必要性を浮き彫りにする。
本稿は、私たちの知る限り、責任あるAIの最初の統一された定義を包括的かつ包括的に紹介する。
論文 参考訳(メタデータ) (2024-03-11T17:01:13Z) - POLARIS: A framework to guide the development of Trustworthy AI systems [3.02243271391691]
ハイレベルなAI倫理原則と、AI専門家のための低レベルな具体的なプラクティスの間には、大きなギャップがある。
我々は、理論と実践のギャップを埋めるために設計された、信頼に値するAIのための新しい総合的なフレームワークを開発する。
私たちの目標は、AIプロフェッショナルが信頼できるAIの倫理的側面を確実にナビゲートできるようにすることです。
論文 参考訳(メタデータ) (2024-02-08T01:05:16Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Investigating Responsible AI for Scientific Research: An Empirical Study [4.597781832707524]
このような機関におけるResponsible AI(RAI)の推進は、AI設計と開発に倫理的配慮を統合することの重要性の高まりを強調している。
本稿では,AI設計・開発に内在する倫理的リスクに対する意識と準備性を評価することを目的とする。
その結果、倫理的、責任的、包括的AIに関する知識ギャップが明らかとなり、利用可能なAI倫理フレームワークに対する認識が制限された。
論文 参考訳(メタデータ) (2023-12-15T06:40:27Z) - FUTURE-AI: International consensus guideline for trustworthy and
deployable artificial intelligence in healthcare [73.51384299592974]
医療AIに関連する技術的、臨床的、倫理的、法的リスクに関する懸念が高まっている。
この研究は、Future-AIガイドラインを、医療における信頼できるAIツールの開発とデプロイを導くための最初の国際コンセンサスフレームワークとして説明している。
論文 参考訳(メタデータ) (2023-08-11T10:49:05Z) - Metaethical Perspectives on 'Benchmarking' AI Ethics [81.65697003067841]
ベンチマークは、人工知能(AI)研究の技術的進歩を測定するための基盤とみられている。
AIの顕著な研究領域は倫理であり、現在、ベンチマークのセットも、AIシステムの「倫理性」を測定する一般的な方法もない。
我々は、現在と将来のAIシステムのアクションを考えるとき、倫理よりも「価値」について話す方が理にかなっていると論じる。
論文 参考訳(メタデータ) (2022-04-11T14:36:39Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - A Deployment Model to Extend Ethically Aligned AI Implementation Method
ECCOLA [5.28595286827031]
本研究の目的は、ECCOLAの採用を促進するために、ECCOLAをデプロイメントモデルで拡張することである。
このモデルには、倫理的AI開発における倫理的ギャップや成果のコミュニケーションを容易にするための単純なメトリクスが含まれている。
論文 参考訳(メタデータ) (2021-10-12T12:22:34Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - Actionable Principles for Artificial Intelligence Policy: Three Pathways [0.0]
本稿では,AIのための行動原理開発のための新しい枠組みを提案する。
このアプローチは、政策プロセスにおける実践性を高めるための方法論的要素におけるAI倫理原則と家庭の関係を認識している。
論文 参考訳(メタデータ) (2021-02-24T16:57:35Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。