論文の概要: Guideline for Trustworthy Artificial Intelligence -- AI Assessment
Catalog
- arxiv url: http://arxiv.org/abs/2307.03681v1
- Date: Tue, 20 Jun 2023 08:07:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-16 04:15:03.783107
- Title: Guideline for Trustworthy Artificial Intelligence -- AI Assessment
Catalog
- Title(参考訳): 信頼できる人工知能のガイドライン - AIアセスメントカタログ
- Authors: Maximilian Poretschkin (1 and 2), Anna Schmitz (1), Maram Akila (1),
Linara Adilova (1), Daniel Becker (1), Armin B. Cremers (2), Dirk Hecker (1),
Sebastian Houben (1), Michael Mock (1 and 2), Julia Rosenzweig (1), Joachim
Sicking (1), Elena Schulz (1), Angelika Voss (1), Stefan Wrobel (1 and 2)
((1) Fraunhofer Institute for Intelligent Analysis and Information Systems
IAIS, Sankt Augustin, Germany, (2) Department of Computer Science, University
of Bonn, Bonn, Germany)
- Abstract要約: AIアプリケーションとそれに基づくビジネスモデルが、高品質な標準に従って開発されている場合にのみ、その潜在能力を最大限に発揮できることは明らかです。
AIアプリケーションの信頼性の問題は非常に重要であり、多くの主要な出版物の主題となっている。
このAIアセスメントカタログは、まさにこの点に対応しており、2つのターゲットグループを対象としている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Artificial Intelligence (AI) has made impressive progress in recent years and
represents a key technology that has a crucial impact on the economy and
society. However, it is clear that AI and business models based on it can only
reach their full potential if AI applications are developed according to high
quality standards and are effectively protected against new AI risks. For
instance, AI bears the risk of unfair treatment of individuals when processing
personal data e.g., to support credit lending or staff recruitment decisions.
The emergence of these new risks is closely linked to the fact that the
behavior of AI applications, particularly those based on Machine Learning (ML),
is essentially learned from large volumes of data and is not predetermined by
fixed programmed rules.
Thus, the issue of the trustworthiness of AI applications is crucial and is
the subject of numerous major publications by stakeholders in politics,
business and society. In addition, there is mutual agreement that the
requirements for trustworthy AI, which are often described in an abstract way,
must now be made clear and tangible. One challenge to overcome here relates to
the fact that the specific quality criteria for an AI application depend
heavily on the application context and possible measures to fulfill them in
turn depend heavily on the AI technology used. Lastly, practical assessment
procedures are needed to evaluate whether specific AI applications have been
developed according to adequate quality standards. This AI assessment catalog
addresses exactly this point and is intended for two target groups: Firstly, it
provides developers with a guideline for systematically making their AI
applications trustworthy. Secondly, it guides assessors and auditors on how to
examine AI applications for trustworthiness in a structured way.
- Abstract(参考訳): 近年、人工知能(AI)は目覚ましい進歩を遂げており、経済や社会に重大な影響を与える重要な技術となっている。
しかし、それに基づくAIとビジネスモデルが、高品質な標準に従ってAIアプリケーションが開発され、新しいAIリスクに対して効果的に保護されている場合にのみ、その潜在能力に到達することは明らかである。
例えば、AIは個人が個人データを処理する際に不公平な扱いをするリスクを負う。
これらの新たなリスクの出現は、AIアプリケーションの振る舞い、特に機械学習(ML)に基づくものは、本質的に大量のデータから学習され、固定されたプログラムされたルールによって規定されていないという事実と密接に関連している。
したがって、AIアプリケーションの信頼性の問題は非常に重要であり、政治、ビジネス、社会の利害関係者による数多くの主要な出版物の対象となっている。
さらに、信頼できるAIの要件は、しばしば抽象的な方法で記述され、明確で具現化されなければならないという相互の合意がある。
ここで克服すべき課題のひとつは、AIアプリケーションの特定の品質基準がアプリケーションコンテキストに大きく依存しているという事実と、それらを満たすための可能な措置が、使用するAIテクノロジに大きく依存しているという事実だ。
最後に、適切な品質基準に従って特定のAIアプリケーションが開発されたかどうかを評価するために、実用的な評価手順が必要である。
このAIアセスメントカタログは、まさにこの点に対応しており、2つのターゲットグループを対象としている。
第2に、AIアプリケーションの信頼性を構造化された方法で調査する方法について、評価者や監査者を指導する。
関連論文リスト
- Responsible Artificial Intelligence: A Structured Literature Review [0.0]
EUは最近、AIへの信頼の必要性を強調するいくつかの出版物を公表した。
これは国際規制の緊急の必要性を浮き彫りにする。
本稿は、私たちの知る限り、責任あるAIの最初の統一された定義を包括的かつ包括的に紹介する。
論文 参考訳(メタデータ) (2024-03-11T17:01:13Z) - POLARIS: A framework to guide the development of Trustworthy AI systems [3.02243271391691]
ハイレベルなAI倫理原則と、AI専門家のための低レベルな具体的なプラクティスの間には、大きなギャップがある。
我々は、理論と実践のギャップを埋めるために設計された、信頼に値するAIのための新しい総合的なフレームワークを開発する。
私たちの目標は、AIプロフェッショナルが信頼できるAIの倫理的側面を確実にナビゲートできるようにすることです。
論文 参考訳(メタデータ) (2024-02-08T01:05:16Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - Opening the Software Engineering Toolbox for the Assessment of
Trustworthy AI [17.910325223647362]
我々は、信頼できるAIを評価するためのソフトウェアエンジニアリングとテストプラクティスの適用について論じる。
欧州委員会のAIハイレベル専門家グループによって定義された7つの重要な要件の関連付けを行います。
論文 参考訳(メタデータ) (2020-07-14T08:16:15Z) - Quality Management of Machine Learning Systems [0.0]
機械学習(ML)技術の大きな進歩により、人工知能(AI)は私たちの日常生活の一部になっています。
ビジネス/ミッションクリティカルなシステムでは、AIアプリケーションの信頼性と保守性に関する深刻な懸念が残っている。
本稿では,MLアプリケーションのための総合的な品質管理フレームワークの展望について述べる。
論文 参考訳(メタデータ) (2020-06-16T21:34:44Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z) - AAAI FSS-19: Human-Centered AI: Trustworthiness of AI Models and Data
Proceedings [8.445274192818825]
予測モデルは不確実性を認識し、信頼できる予測をもたらすことが不可欠である。
このシンポジウムの焦点は、データ品質と技術的堅牢性と安全性を改善するAIシステムであった。
広く定義された領域からの提出はまた、説明可能なモデル、人間の信頼、AIの倫理的側面といった要求に対処するアプローチについても論じた。
論文 参考訳(メタデータ) (2020-01-15T15:30:29Z) - Effect of Confidence and Explanation on Accuracy and Trust Calibration
in AI-Assisted Decision Making [53.62514158534574]
ケース固有のモデル情報を明らかにする特徴が、信頼度を調整し、人間とAIのジョイントパフォーマンスを向上させることができるかどうかを検討する。
信頼スコアは、AIモデルに対する人々の信頼を校正するのに役立ちますが、信頼の校正だけでは、AI支援による意思決定を改善するには不十分です。
論文 参考訳(メタデータ) (2020-01-07T15:33:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。