論文の概要: A Rapid Review of Responsible AI frameworks: How to guide the
development of ethical AI
- arxiv url: http://arxiv.org/abs/2306.05003v1
- Date: Thu, 8 Jun 2023 07:47:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-09 15:45:02.419545
- Title: A Rapid Review of Responsible AI frameworks: How to guide the
development of ethical AI
- Title(参考訳): 責任あるAIフレームワークの迅速なレビュー:倫理的AIの開発をいかに導くか
- Authors: Vita Santa Barletta, Danilo Caivano, Domenico Gigante and Azzurra
Ragone
- Abstract要約: 我々は、Responsible AI(RAI)アプリケーションの開発とデプロイを支援するために、原則、ガイドライン、および/またはツールを提供するいくつかのフレームワークを迅速にレビューする。
実世界のプロジェクト実装における技術的利害関係者と非技術的利害関係者の両方をサポートする"キャッチオール"フレームワークは存在しないことが明らかとなった。
- 参考スコア(独自算出の注目度): 1.3734044451150018
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In the last years, the raise of Artificial Intelligence (AI), and its
pervasiveness in our lives, has sparked a flourishing debate about the ethical
principles that should lead its implementation and use in society. Driven by
these concerns, we conduct a rapid review of several frameworks providing
principles, guidelines, and/or tools to help practitioners in the development
and deployment of Responsible AI (RAI) applications. We map each framework
w.r.t. the different Software Development Life Cycle (SDLC) phases discovering
that most of these frameworks fall just in the Requirements Elicitation phase,
leaving the other phases uncovered. Very few of these frameworks offer
supporting tools for practitioners, and they are mainly provided by private
companies. Our results reveal that there is not a "catching-all" framework
supporting both technical and non-technical stakeholders in the implementation
of real-world projects. Our findings highlight the lack of a comprehensive
framework encompassing all RAI principles and all (SDLC) phases that could be
navigated by users with different skill sets and with different goals.
- Abstract(参考訳): 過去数年間、人工知能(ai)の台頭と私たちの生活における広汎性は、社会におけるその実施と使用を導くべき倫理的原則に関する活発な議論を引き起こした。
これらの懸念に基づいて、Responsible AI(RAI)アプリケーションの開発とデプロイを支援するための原則、ガイドライン、/またはツールを提供するいくつかのフレームワークを迅速にレビューします。
それぞれのフレームワークをSDLC(Software Development Life Cycle)の異なるフェーズにマッピングし、これらのフレームワークのほとんどがRequireements Elicitationフェーズのみに該当し、他のフェーズが未発見のままであることを確認します。
これらのフレームワークの多くは実践者のためのサポートツールを提供しており、主に民間企業によって提供されている。
実世界のプロジェクト実装における技術的利害関係者と非技術的利害関係者の両方をサポートする"キャッチオール"フレームワークは存在しないことが明らかとなった。
我々の発見は、異なるスキルセットと異なる目標を持つユーザによってナビゲートできるすべてのRAI原則とすべてのSDLCフェーズを含む包括的なフレームワークが欠如していることを強調した。
関連論文リスト
- Particip-AI: A Democratic Surveying Framework for Anticipating Future AI Use Cases, Harms and Benefits [54.648819983899614]
Particip-AIは、現在および将来のAIユースケースと、非専門家から損害と利益を収集するフレームワークである。
人口統計学的に多様な参加者295名から回答を得た。
論文 参考訳(メタデータ) (2024-03-21T19:12:37Z) - POLARIS: A framework to guide the development of Trustworthy AI systems [3.02243271391691]
ハイレベルなAI倫理原則と、AI専門家のための低レベルな具体的なプラクティスの間には、大きなギャップがある。
我々は、理論と実践のギャップを埋めるために設計された、信頼に値するAIのための新しい総合的なフレームワークを開発する。
私たちの目標は、AIプロフェッショナルが信頼できるAIの倫理的側面を確実にナビゲートできるようにすることです。
論文 参考訳(メタデータ) (2024-02-08T01:05:16Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Levels of AGI: Operationalizing Progress on the Path to AGI [67.02053749878078]
このフレームワークは、AGIパフォーマンス、一般性、自律性のレベルを導入します。
このフレームワークが、自動運転のレベルと同等の方法で有効になることを願っています。
論文 参考訳(メタデータ) (2023-11-04T17:44:58Z) - RE-centric Recommendations for the Development of Trustworthy(er)
Autonomous Systems [4.268504966623082]
EU AI Act(AIA)ガイドラインを遵守し、AIシステムの開発と実装は、間もなくEU内で必須となる。
実践者は、AIシステム開発中に倫理を運用するための実行可能な指示を欠いている。
異なる倫理的ガイドラインの文献レビューでは、対処された原則とそれらを記述するために使用される用語の矛盾が明らかになった。
論文 参考訳(メタデータ) (2023-05-29T11:57:07Z) - Responsible AI Implementation: A Human-centered Framework for
Accelerating the Innovation Process [0.8481798330936974]
本稿では,人工知能(AI)の実装に関する理論的枠組みを提案する。
提案されたフレームワークは、アジャイル共同創造プロセスのための相乗的ビジネス技術アプローチを強調している。
このフレームワークは,AIの人間中心の設計とアジャイル開発を通じて,信頼の確立と維持を重視している。
論文 参考訳(メタデータ) (2022-09-15T06:24:01Z) - Responsible AI Pattern Catalogue: A Collection of Best Practices for AI
Governance and Engineering [20.644494592443245]
MLR(Multivocal Literature Review)の結果に基づく応答性AIパターンカタログを提案する。
原則やアルゴリズムのレベルにとどまらず、私たちは、AIシステムのステークホルダーが実際に行なえるパターンに注目して、開発済みのAIシステムがガバナンスとエンジニアリングライフサイクル全体を通して責任を負うようにします。
論文 参考訳(メタデータ) (2022-09-12T00:09:08Z) - On the Current and Emerging Challenges of Developing Fair and Ethical AI
Solutions in Financial Services [1.911678487931003]
我々は、高レベルの原則と具体的なデプロイされたAIアプリケーションとのギャップについて、実践的な考察をいかに示すかを示す。
我々は、高レベルの原則と具体的なデプロイされたAIアプリケーションとのギャップについて、実践的な考察をいかに示すかを示す。
論文 参考訳(メタデータ) (2021-11-02T00:15:04Z) - Empowered and Embedded: Ethics and Agile Processes [60.63670249088117]
私たちは倫理的考慮事項を(アジャイル)ソフトウェア開発プロセスに組み込む必要があると論じています。
私たちは、すでに存在しており、確立されたアジャイルソフトウェア開発プロセスで倫理的な議論を実施する可能性を強調しました。
論文 参考訳(メタデータ) (2021-07-15T11:14:03Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。