論文の概要: Time for AI (Ethics) Maturity Model Is Now
- arxiv url: http://arxiv.org/abs/2101.12701v1
- Date: Fri, 29 Jan 2021 17:37:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-13 08:52:12.088453
- Title: Time for AI (Ethics) Maturity Model Is Now
- Title(参考訳): AI(倫理)成熟度モデルが登場
- Authors: Ville Vakkuri, Marianna Jantunen, Erika Halme, Kai-Kristian Kemell,
Anh Nguyen-Duc, Tommi Mikkonen, Pekka Abrahamsson
- Abstract要約: この記事では、AIソフトウェアはまだソフトウェアであり、ソフトウェア開発の観点からアプローチする必要がある、と論じる。
我々は、AI倫理に重点を置くべきか、それともより広く、AIシステムの品質に重点を置くべきかを議論したい。
- 参考スコア(独自算出の注目度): 15.870654219935972
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: There appears to be a common agreement that ethical concerns are of high
importance when it comes to systems equipped with some sort of Artificial
Intelligence (AI). Demands for ethical AI are declared from all directions. As
a response, in recent years, public bodies, governments, and universities have
rushed in to provide a set of principles to be considered when AI based systems
are designed and used. We have learned, however, that high-level principles do
not turn easily into actionable advice for practitioners. Hence, also companies
are publishing their own ethical guidelines to guide their AI development. This
paper argues that AI software is still software and needs to be approached from
the software development perspective. The software engineering paradigm has
introduced maturity model thinking, which provides a roadmap for companies to
improve their performance from the selected viewpoints known as the key
capabilities. We want to voice out a call for action for the development of a
maturity model for AI software. We wish to discuss whether the focus should be
on AI ethics or, more broadly, the quality of an AI system, called a maturity
model for the development of AI systems.
- Abstract(参考訳): ある種の人工知能(AI)を備えたシステムに関しては、倫理的懸念が重要であるという共通の合意があるようだ。
倫理的AIの要求はあらゆる方向から宣言される。
これに応えて、近年、公共機関、政府、大学はAIベースのシステムを設計、使用する際に考慮すべき原則のセットを提供するために急いでいる。
しかし、私たちはハイレベルな原則が実践者にとって実行可能なアドバイスに簡単に変わりません。
そのため、企業はAI開発をガイドラインする独自の倫理ガイドラインも公開している。
この記事では、AIソフトウェアはまだソフトウェアであり、ソフトウェア開発の観点からアプローチする必要があります。
ソフトウェアエンジニアリングパラダイムは成熟度モデル思考を導入し、企業が重要な機能として知られる選択された視点からパフォーマンスを改善するためのロードマップを提供する。
aiソフトウェアの成熟度モデルを開発するための行動を呼び掛けたいと考えています。
我々は、AI倫理に焦点をあてるべきなのか、それともより広範に、AIシステムの開発のための成熟度モデルと呼ばれるAIシステムの品質を議論したい。
関連論文リスト
- End-User Development for Artificial Intelligence: A Systematic
Literature Review [2.347942013388615]
エンドユーザ開発(EUD)は、AIベースのシステムを自分たちのニーズに合わせて作成、カスタマイズ、あるいは適用することができる。
本稿では,AIシステムにおけるEUDの現在の状況に光を当てることを目的とした文献レビューを紹介する。
論文 参考訳(メタデータ) (2023-04-14T09:57:36Z) - Responsible AI Pattern Catalogue: A Collection of Best Practices for AI
Governance and Engineering [20.644494592443245]
MLR(Multivocal Literature Review)の結果に基づく応答性AIパターンカタログを提案する。
原則やアルゴリズムのレベルにとどまらず、私たちは、AIシステムのステークホルダーが実際に行なえるパターンに注目して、開発済みのAIシステムがガバナンスとエンジニアリングライフサイクル全体を通して責任を負うようにします。
論文 参考訳(メタデータ) (2022-09-12T00:09:08Z) - Never trust, always verify : a roadmap for Trustworthy AI? [12.031113181911627]
我々はAIベースのシステムのコンテキストにおける信頼を検証し、AIシステムが信頼に値するものとなることの意味を理解する。
我々は、AIに対する信頼(resp. zero-trust)モデルを提案し、AIシステムの信頼性を保証するために満足すべき特性のセットを提案する。
論文 参考訳(メタデータ) (2022-06-23T21:13:10Z) - Metaethical Perspectives on 'Benchmarking' AI Ethics [81.65697003067841]
ベンチマークは、人工知能(AI)研究の技術的進歩を測定するための基盤とみられている。
AIの顕著な研究領域は倫理であり、現在、ベンチマークのセットも、AIシステムの「倫理性」を測定する一般的な方法もない。
我々は、現在と将来のAIシステムのアクションを考えるとき、倫理よりも「価値」について話す方が理にかなっていると論じる。
論文 参考訳(メタデータ) (2022-04-11T14:36:39Z) - Enabling Automated Machine Learning for Model-Driven AI Engineering [60.09869520679979]
モデル駆動型ソフトウェアエンジニアリングとモデル駆動型AIエンジニアリングを実現するための新しいアプローチを提案する。
特に、私たちはAutomated MLをサポートし、AI集約システムの開発において、AIの深い知識のないソフトウェアエンジニアを支援します。
論文 参考訳(メタデータ) (2022-03-06T10:12:56Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - A Deployment Model to Extend Ethically Aligned AI Implementation Method
ECCOLA [5.28595286827031]
本研究の目的は、ECCOLAの採用を促進するために、ECCOLAをデプロイメントモデルで拡張することである。
このモデルには、倫理的AI開発における倫理的ギャップや成果のコミュニケーションを容易にするための単純なメトリクスが含まれている。
論文 参考訳(メタデータ) (2021-10-12T12:22:34Z) - The application of artificial intelligence in software engineering: a
review challenging conventional wisdom [0.9651131604396904]
この調査章は、ソフトウェア工学に適用されるAIの最も一般的な方法のレビューである。
このレビューでは、1975年から2017年にかけての要件フェーズについて、46の主要なAI駆動手法が発見されている。
この章の目的は、以下の質問に答えることである。
論文 参考訳(メタデータ) (2021-08-03T15:59:59Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。