論文の概要: A Survey on AI Assurance
- arxiv url: http://arxiv.org/abs/2111.07505v1
- Date: Mon, 15 Nov 2021 02:45:34 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-17 03:55:11.227966
- Title: A Survey on AI Assurance
- Title(参考訳): AI保証に関する調査
- Authors: Feras A. Batarseh, and Laura Freeman
- Abstract要約: AIアルゴリズムを運用決定プロセスに採用する上で重要な概念は、保証の概念である。
この写本は、1985年から2021年の間、AIの保証に関連する研究の体系的なレビューを提供する。
新しいAI保証定義を採用し、提示し、アシュアランス手法を対比し、集計する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Artificial Intelligence (AI) algorithms are increasingly providing decision
making and operational support across multiple domains. AI includes a wide
library of algorithms for different problems. One important notion for the
adoption of AI algorithms into operational decision process is the concept of
assurance. The literature on assurance, unfortunately, conceals its outcomes
within a tangled landscape of conflicting approaches, driven by contradicting
motivations, assumptions, and intuitions. Accordingly, albeit a rising and
novel area, this manuscript provides a systematic review of research works that
are relevant to AI assurance, between years 1985 - 2021, and aims to provide a
structured alternative to the landscape. A new AI assurance definition is
adopted and presented and assurance methods are contrasted and tabulated.
Additionally, a ten-metric scoring system is developed and introduced to
evaluate and compare existing methods. Lastly, in this manuscript, we provide
foundational insights, discussions, future directions, a roadmap, and
applicable recommendations for the development and deployment of AI assurance.
- Abstract(参考訳): 人工知能(AI)アルゴリズムは、複数のドメインにわたる意思決定と運用のサポートをますます提供しています。
AIには、さまざまな問題に対する幅広いアルゴリズムライブラリが含まれている。
AIアルゴリズムを運用決定プロセスに適用する上で重要な概念のひとつは、保証の概念である。
保証に関する文献は、残念ながら、モチベーション、仮定、直観の矛盾によって引き起こされる、対立するアプローチの絡み合った風景の中にその成果を隠している。
したがって、この写本は上昇し、新しい領域であるにもかかわらず、1985年から2021年の間にAIの保証に関連する研究成果の体系的なレビューを提供し、ランドスケープに代わる構造的な代替手段を提供することを目指している。
新しいAI保証定義を採用し、提示し、アシュアランス手法を対比し、集計する。
また,既存の手法を評価,比較するために10指標スコアリングシステムを開発した。
最後に、本原稿では、ai保証の開発と展開のための基礎的な洞察、議論、今後の方向性、ロードマップ、適用可能な推奨事項を提供します。
関連論文リスト
- A Decision-driven Methodology for Designing Uncertainty-aware AI Self-Assessment [8.482630532500057]
特定のAIシステムの予測が下流アプリケーションで意思決定者によって信頼できるかどうかは不明だ。
この原稿は、機械学習エンジニアとAIシステムユーザーが理想的な自己評価テクニックを選択するための実践的なガイドである。
論文 参考訳(メタデータ) (2024-08-02T14:43:45Z) - Combining AI Control Systems and Human Decision Support via Robustness and Criticality [53.10194953873209]
我々は、逆説(AE)の方法論を最先端の強化学習フレームワークに拡張する。
学習したAI制御システムは、敵のタンパリングに対する堅牢性を示す。
トレーニング/学習フレームワークでは、この技術は人間のインタラクションを通じてAIの決定と説明の両方を改善することができる。
論文 参考訳(メタデータ) (2024-07-03T15:38:57Z) - Towards Bidirectional Human-AI Alignment: A Systematic Review for Clarifications, Framework, and Future Directions [101.67121669727354]
近年のAIの進歩は、AIシステムを意図された目標、倫理的原則、個人とグループの価値に向けて導くことの重要性を強調している。
人間のAIアライメントの明確な定義とスコープの欠如は、このアライメントを達成するための研究領域間の共同作業を妨げる、大きな障害となる。
我々は、2019年から2024年1月までに400以上の論文を体系的にレビューし、HCI(Human-Computer Interaction)、自然言語処理(NLP)、機械学習(ML)といった複数の分野にまたがって紹介する。
論文 参考訳(メタデータ) (2024-06-13T16:03:25Z) - Participatory Approaches in AI Development and Governance: Case Studies [9.824305892501686]
本稿では、AI開発と展開への参加的アプローチの価値に関する2部シリーズの第2部を構成する。
最初の論文は、この2つの演習で参加的手法を展開するための、原則と実践的な正当化を考案した。
本稿では、これらの予備的な結論を、法と秩序の覚醒における顔認識技術の使用と、医療分野における大規模言語モデルの使用の2つの分野で検証する。
論文 参考訳(メタデータ) (2024-06-03T10:10:23Z) - Particip-AI: A Democratic Surveying Framework for Anticipating Future AI Use Cases, Harms and Benefits [54.648819983899614]
汎用AIは、一般大衆がAIを使用してそのパワーを利用するための障壁を下げたようだ。
本稿では,AI利用事例とその影響を推測し,評価するためのフレームワークであるPartICIP-AIを紹介する。
論文 参考訳(メタデータ) (2024-03-21T19:12:37Z) - Explainable AI for Safe and Trustworthy Autonomous Driving: A Systematic Review [12.38351931894004]
本稿では,安全かつ信頼性の高い自動運転のための説明可能な手法に関する,最初の体系的な文献レビューを紹介する。
我々は、ADにおける安全で信頼性の高いAIに対するXAIの5つの重要な貢献を特定し、それらは解釈可能な設計、解釈可能な代理モデル、解釈可能なモニタリング、補助的な説明、解釈可能な検証である。
我々は、これらのコントリビューションを統合するためにSafeXと呼ばれるモジュラーフレームワークを提案し、同時にAIモデルの安全性を確保しながら、ユーザへの説明提供を可能にした。
論文 参考訳(メタデータ) (2024-02-08T09:08:44Z) - Trustworthy AI: Deciding What to Decide [41.10597843436572]
我々は,AIの重要なコンポーネントを含む,信頼に値するAI(TAI)の新しいフレームワークを提案する。
我々は,この枠組みを用いて,定量的および定性的な研究手法によるTAI実験を実施することを目指している。
技術分野における信用デフォルトスワップ(CDS)の戦略的投資決定を適用するための最適予測モデルを定式化する。
論文 参考訳(メタデータ) (2023-11-21T13:43:58Z) - The Role of AI in Drug Discovery: Challenges, Opportunities, and
Strategies [97.5153823429076]
この分野でのAIのメリット、課題、欠点についてレビューする。
データ拡張、説明可能なAIの使用、従来の実験手法とAIの統合についても論じている。
論文 参考訳(メタデータ) (2022-12-08T23:23:39Z) - Connecting Algorithmic Research and Usage Contexts: A Perspective of
Contextualized Evaluation for Explainable AI [65.44737844681256]
説明可能なAI(XAI)を評価する方法に関するコンセンサスの欠如は、この分野の進歩を妨げる。
このギャップを埋める一つの方法は、異なるユーザ要求を考慮に入れた評価方法を開発することである、と我々は主張する。
論文 参考訳(メタデータ) (2022-06-22T05:17:33Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - Physically Unclonable Functions and AI: Two Decades of Marriage [7.601937548486356]
ここでの主な焦点は、ハードウェアプリミティブのセキュリティを評価するために、AIから借りた方法を探ることである。
AI技術を適用して設計したPUFをレビューすることにより、今後の研究方向性について考察する。
論文 参考訳(メタデータ) (2020-08-26T02:53:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。