論文の概要: A Rapid Review of Responsible AI frameworks: How to guide the
development of ethical AI
- arxiv url: http://arxiv.org/abs/2306.05003v1
- Date: Thu, 8 Jun 2023 07:47:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-09 15:45:02.419545
- Title: A Rapid Review of Responsible AI frameworks: How to guide the
development of ethical AI
- Title(参考訳): 責任あるAIフレームワークの迅速なレビュー:倫理的AIの開発をいかに導くか
- Authors: Vita Santa Barletta, Danilo Caivano, Domenico Gigante and Azzurra
Ragone
- Abstract要約: 我々は、Responsible AI(RAI)アプリケーションの開発とデプロイを支援するために、原則、ガイドライン、および/またはツールを提供するいくつかのフレームワークを迅速にレビューする。
実世界のプロジェクト実装における技術的利害関係者と非技術的利害関係者の両方をサポートする"キャッチオール"フレームワークは存在しないことが明らかとなった。
- 参考スコア(独自算出の注目度): 1.3734044451150018
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In the last years, the raise of Artificial Intelligence (AI), and its
pervasiveness in our lives, has sparked a flourishing debate about the ethical
principles that should lead its implementation and use in society. Driven by
these concerns, we conduct a rapid review of several frameworks providing
principles, guidelines, and/or tools to help practitioners in the development
and deployment of Responsible AI (RAI) applications. We map each framework
w.r.t. the different Software Development Life Cycle (SDLC) phases discovering
that most of these frameworks fall just in the Requirements Elicitation phase,
leaving the other phases uncovered. Very few of these frameworks offer
supporting tools for practitioners, and they are mainly provided by private
companies. Our results reveal that there is not a "catching-all" framework
supporting both technical and non-technical stakeholders in the implementation
of real-world projects. Our findings highlight the lack of a comprehensive
framework encompassing all RAI principles and all (SDLC) phases that could be
navigated by users with different skill sets and with different goals.
- Abstract(参考訳): 過去数年間、人工知能(ai)の台頭と私たちの生活における広汎性は、社会におけるその実施と使用を導くべき倫理的原則に関する活発な議論を引き起こした。
これらの懸念に基づいて、Responsible AI(RAI)アプリケーションの開発とデプロイを支援するための原則、ガイドライン、/またはツールを提供するいくつかのフレームワークを迅速にレビューします。
それぞれのフレームワークをSDLC(Software Development Life Cycle)の異なるフェーズにマッピングし、これらのフレームワークのほとんどがRequireements Elicitationフェーズのみに該当し、他のフェーズが未発見のままであることを確認します。
これらのフレームワークの多くは実践者のためのサポートツールを提供しており、主に民間企業によって提供されている。
実世界のプロジェクト実装における技術的利害関係者と非技術的利害関係者の両方をサポートする"キャッチオール"フレームワークは存在しないことが明らかとなった。
我々の発見は、異なるスキルセットと異なる目標を持つユーザによってナビゲートできるすべてのRAI原則とすべてのSDLCフェーズを含む包括的なフレームワークが欠如していることを強調した。
関連論文リスト
- Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - INDICT: Code Generation with Internal Dialogues of Critiques for Both Security and Helpfulness [110.6921470281479]
INDICTは、安全性と有用性の両方のガイダンスのために、批評家の内的対話で大きな言語モデルを強化する新しいフレームワークである。
内部対話は、安全主導の批評家と役に立つ主導の批評家の二重協調システムである。
提案手法は,安全性と有用性解析の両面において,高度な批判のレベルを提供し,出力コードの品質を著しく向上させる。
論文 参考訳(メタデータ) (2024-06-23T15:55:07Z) - Trustworthy AI in practice: an analysis of practitioners' needs and challenges [2.5788518098820337]
多くのフレームワークとガイドラインが、信頼できるAIアプリケーションを実装する実践者を支援しているように見える。
私たちは、AI実践者がTAIの原則、それらにどう対処するか、何を望んでいるのか、といったビジョンを研究します。
私たちは、AI実践者が信頼できるAIアプリケーションを開発するのを助けるためのレコメンデーションを強調します。
論文 参考訳(メタデータ) (2024-05-15T13:02:46Z) - Crossing the principle-practice gap in AI ethics with ethical problem-solving [0.0]
AI開発の技術的側面から倫理的言説を分離する原則-実践的ギャップを埋めるには、依然として未解決の問題である。
EPSは、責任、人間中心、価値指向のAI開発を促進する方法論である。
EPSを青写真として利用し、Ethics as a Service Platformの実装を提案します。
論文 参考訳(メタデータ) (2024-04-16T14:35:13Z) - Particip-AI: A Democratic Surveying Framework for Anticipating Future AI Use Cases, Harms and Benefits [54.648819983899614]
汎用AIは、一般大衆がAIを使用してそのパワーを利用するための障壁を下げたようだ。
本稿では,AI利用事例とその影響を推測し,評価するためのフレームワークであるPartICIP-AIを紹介する。
論文 参考訳(メタデータ) (2024-03-21T19:12:37Z) - POLARIS: A framework to guide the development of Trustworthy AI systems [3.02243271391691]
ハイレベルなAI倫理原則と、AI専門家のための低レベルな具体的なプラクティスの間には、大きなギャップがある。
我々は、理論と実践のギャップを埋めるために設計された、信頼に値するAIのための新しい総合的なフレームワークを開発する。
私たちの目標は、AIプロフェッショナルが信頼できるAIの倫理的側面を確実にナビゲートできるようにすることです。
論文 参考訳(メタデータ) (2024-02-08T01:05:16Z) - Responsible AI Implementation: A Human-centered Framework for
Accelerating the Innovation Process [0.8481798330936974]
本稿では,人工知能(AI)の実装に関する理論的枠組みを提案する。
提案されたフレームワークは、アジャイル共同創造プロセスのための相乗的ビジネス技術アプローチを強調している。
このフレームワークは,AIの人間中心の設計とアジャイル開発を通じて,信頼の確立と維持を重視している。
論文 参考訳(メタデータ) (2022-09-15T06:24:01Z) - On the Current and Emerging Challenges of Developing Fair and Ethical AI
Solutions in Financial Services [1.911678487931003]
我々は、高レベルの原則と具体的なデプロイされたAIアプリケーションとのギャップについて、実践的な考察をいかに示すかを示す。
我々は、高レベルの原則と具体的なデプロイされたAIアプリケーションとのギャップについて、実践的な考察をいかに示すかを示す。
論文 参考訳(メタデータ) (2021-11-02T00:15:04Z) - Empowered and Embedded: Ethics and Agile Processes [60.63670249088117]
私たちは倫理的考慮事項を(アジャイル)ソフトウェア開発プロセスに組み込む必要があると論じています。
私たちは、すでに存在しており、確立されたアジャイルソフトウェア開発プロセスで倫理的な議論を実施する可能性を強調しました。
論文 参考訳(メタデータ) (2021-07-15T11:14:03Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。