論文の概要: Responsible AI Pattern Catalogue: A Multivocal Literature Review
- arxiv url: http://arxiv.org/abs/2209.04963v2
- Date: Wed, 14 Sep 2022 00:00:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-15 11:03:18.421442
- Title: Responsible AI Pattern Catalogue: A Multivocal Literature Review
- Title(参考訳): 責任あるAIパターンカタログ:多言語文献レビュー
- Authors: Qinghua Lu, Liming Zhu, Xiwei Xu, Jon Whittle, Didar Zowghi, Aurelie
Jacquet
- Abstract要約: MLR(Multivocal Literature Review)の結果に基づく応答性AIパターンカタログを提案する。
原則やアルゴリズムのレベルにとどまらず、私たちは、AIシステムのステークホルダーが実際に行なえるパターンに注目して、開発済みのAIシステムがガバナンスとエンジニアリングライフサイクル全体を通して責任を負うようにします。
- 参考スコア(独自算出の注目度): 13.16999943501183
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Responsible AI has been widely considered as one of the greatest scientific
challenges of our time and the key to increase the adoption of AI. A number of
AI ethics principles frameworks have been published recently. However, without
further best practice guidance, practitioners are left with nothing much beyond
truisms. Also, significant efforts have been placed at algorithm-level rather
than system-level, mainly focusing on a subset of mathematics-amenable ethical
principles (such as fairness). Nevertheless, ethical issues can occur at any
step of the development lifecycle crosscutting many AI and non-AI components of
systems beyond AI algorithms and models. To operationalize responsible AI from
a system perspective, in this paper, we present a Responsible AI Pattern
Catalogue based on the results of a Multivocal Literature Review (MLR). Rather
than staying at the principle or algorithm level, we focus on patterns that AI
system stakeholders can undertake in practice to ensure that the developed AI
systems are responsible throughout the entire governance and engineering
lifecycle. The Responsible AI Pattern Catalogue classifies the patterns into
three groups: multi-level governance patterns, trustworthy process patterns,
and responsible-AI-by-design product patterns. These patterns provide a
systematic and actionable guidance for stakeholders to implement responsible
AI.
- Abstract(参考訳): 責任あるAIは、我々の時代における最大の科学的課題の1つであり、AIの採用を促進する鍵であると考えられてきた。
最近、多くのAI倫理原則フレームワークが公開された。
しかし、それ以上のベストプラクティスの指導がなければ、実践者は残らず残される。
また、システムレベルよりもアルゴリズムレベルに重要な取り組みがなされており、主に数学に適応可能な倫理原則(公正性など)のサブセットに焦点を当てている。
それでも、倫理的な問題は、AIアルゴリズムやモデル以外のシステムの多くのAIおよび非AIコンポーネントを横断する開発ライフサイクルの任意のステップで起こりうる。
本稿では,システムの観点から責任あるAIを運用するために,MLR(Multivocal Literature Review)の結果に基づく責任あるAIパターンカタログを提案する。
原則やアルゴリズムのレベルにとどまらず、私たちは、AIシステムのステークホルダーが実際に行なえるパターンに注目して、開発済みのAIシステムがガバナンスとエンジニアリングライフサイクル全体を通して責任を負うようにします。
Responsible AI Pattern Catalogueは、パターンを3つのグループに分類する。
これらのパターンは、ステークホルダーが責任あるAIを実装するための体系的で実行可能なガイダンスを提供する。
関連論文リスト
- Engineering Trustworthy AI: A Developer Guide for Empirical Risk Minimization [53.80919781981027]
信頼できるAIのための重要な要件は、経験的リスク最小化のコンポーネントの設計選択に変換できる。
私たちは、AIの信頼性の新たな標準を満たすAIシステムを構築するための実用的なガイダンスを提供したいと思っています。
論文 参考訳(メタデータ) (2024-10-25T07:53:32Z) - Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - POLARIS: A framework to guide the development of Trustworthy AI systems [3.02243271391691]
ハイレベルなAI倫理原則と、AI専門家のための低レベルな具体的なプラクティスの間には、大きなギャップがある。
我々は、理論と実践のギャップを埋めるために設計された、信頼に値するAIのための新しい総合的なフレームワークを開発する。
私たちの目標は、AIプロフェッショナルが信頼できるAIの倫理的側面を確実にナビゲートできるようにすることです。
論文 参考訳(メタデータ) (2024-02-08T01:05:16Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - Operationalising Responsible AI Using a Pattern-Oriented Approach: A
Case Study on Chatbots in Financial Services [11.33499498841489]
責任AI(Responsible AI)は、人間、社会、環境に利益をもたらす方法でAIシステムを開発し、利用するプラクティスである。
さまざまな責任あるAI原則が最近リリースされたが、これらの原則は非常に抽象的で実用的ではない。
ギャップを埋めるために、パターン指向のアプローチを採用し、責任あるAIパターンカタログを構築します。
論文 参考訳(メタデータ) (2023-01-03T23:11:03Z) - Towards a Roadmap on Software Engineering for Responsible AI [17.46300715928443]
本稿では,責任あるAIのためのソフトウェア工学のロードマップを作成することを目的とする。
ロードマップは、(i)責任AIシステムのためのマルチレベルガバナンスの確立、(ii)責任AIシステムのためのプロセス指向のプラクティスを取り入れた開発プロセスのセットアップ、(iii)システムレベルのアーキテクチャスタイル、パターン、テクニックを通じて責任AIをAIシステムにバイデザインする構築に焦点を当てている。
論文 参考訳(メタデータ) (2022-03-09T07:01:32Z) - Responsible-AI-by-Design: a Pattern Collection for Designing Responsible
AI Systems [12.825892132103236]
責任あるAIのための多くの倫理規定、原則、ガイドラインが最近発行されている。
本稿では、システムレベルのガイダンスとして、責任あるAIシステムのアーキテクチャをどのように設計するかという、欠落した要素を1つ挙げる。
本稿では、AIシステムに組み込んだデザインパターンを製品として紹介し、責任あるAI設計に貢献する。
論文 参考訳(メタデータ) (2022-03-02T07:30:03Z) - Software Engineering for Responsible AI: An Empirical Study and
Operationalised Patterns [20.747681252352464]
具体的なパターンの形でAI倫理原則を運用可能なテンプレートを提案する。
これらのパターンは、責任あるAIシステムの開発を容易にする具体的な、運用されたガイダンスを提供する。
論文 参考訳(メタデータ) (2021-11-18T02:18:27Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - Distributed and Democratized Learning: Philosophy and Research
Challenges [80.39805582015133]
民主化学習(Dem-AI)という新しいデザイン哲学を提案する。
ヒトの社会的グループに触発され、提案されたDem-AIシステムの学習エージェントの専門グループは階層構造で自己組織化され、より効率的に学習タスクを遂行する。
本稿では,様々な学際分野に触発された未来のDem-AIシステムを実現するためのガイドラインとして,参照設計を提案する。
論文 参考訳(メタデータ) (2020-03-18T08:45:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。