論文の概要: The 6-Ds of Creating AI-Enabled Systems
- arxiv url: http://arxiv.org/abs/2202.03172v1
- Date: Fri, 4 Feb 2022 15:51:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-13 20:29:38.669164
- Title: The 6-Ds of Creating AI-Enabled Systems
- Title(参考訳): AI対応システム構築の6次元
- Authors: John Piorkowski
- Abstract要約: 6-Dフレームワークは、この挑戦をうまくナビゲートするためのエンドツーエンドフレームワークを提供する。
6-Dフレームワークは、潜在的なAIソリューションを特定するために問題分解から始まり、AI対応システムのデプロイに関する考慮で終わる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We are entering our tenth year of the current Artificial Intelligence (AI)
spring, and, as with previous AI hype cycles, the threat of an AI winter looms.
AI winters occurred because of ineffective approaches towards navigating the
technology valley of death. The 6-D framework provides an end-to-end framework
to successfully navigate this challenge. The 6-D framework starts with problem
decomposition to identify potential AI solutions, and ends with considerations
for deployment of AI-enabled systems. Each component of the 6-D framework and a
precision medicine use case is described in this paper.
- Abstract(参考訳): 私たちは現在の人工知能(AI)春の10周年を迎え、過去のAIのハイプサイクルと同様に、AI冬の織り込みの脅威に直面する。
AIの冬は、死の技術的谷をナビゲートする非効果的なアプローチのために起こった。
6-Dフレームワークは、この挑戦をうまくナビゲートするためのエンドツーエンドフレームワークを提供する。
6-Dフレームワークは、潜在的なAIソリューションを特定するために問題分解から始まり、AI対応システムのデプロイに関する考慮で終わる。
本論文では,6次元フレームワークの各コンポーネントと精密医療利用事例について述べる。
関連論文リスト
- Ten Hard Problems in Artificial Intelligence We Must Get Right [72.99597122935903]
AIの約束を阻止し、AIのリスクを引き起こすAI2050の「ハード問題」について検討する。
それぞれの問題について、その領域を概説し、最近の重要な作業を特定し、今後の方向性を提案する。
論文 参考訳(メタデータ) (2024-02-06T23:16:41Z) - A Red Teaming Framework for Securing AI in Maritime Autonomous Systems [0.0]
海上自律システムのAIセキュリティを評価するための,最初のレッドチームフレームワークを提案する。
このフレームワークはマルチパートのチェックリストであり、異なるシステムや要件に合わせて調整できる。
私たちはこのフレームワークが、現実の海上自律システムAI内の多数の脆弱性を明らかにするために、レッドチームにとって非常に効果的であることを実証しています。
論文 参考訳(メタデータ) (2023-12-08T14:59:07Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - LeanAI: A method for AEC practitioners to effectively plan AI
implementations [1.213096549055645]
AIの使用に関する熱意にもかかわらず、現在のビッグデータプロジェクトの85%は失敗している。
AEC業界でAIプロジェクトが失敗する主な理由の1つは、AIの計画や使用を決定した人とそれを実装する人との接続を断つことである。
この研究はLeanAIメソッドを導入し、AIが解決すべきもの、解決すべきもの、解決すべきものを説明する。
論文 参考訳(メタデータ) (2023-06-29T09:18:11Z) - AI Maintenance: A Robustness Perspective [91.28724422822003]
我々は、AIライフサイクルにおけるロバストネスの課題を強調し、自動車のメンテナンスに類似させることで、AIのメンテナンスを動機付ける。
本稿では,ロバストネスリスクの検出と軽減を目的としたAIモデル検査フレームワークを提案する。
我々のAIメンテナンスの提案は、AIライフサイクル全体を通して堅牢性評価、状態追跡、リスクスキャン、モデル硬化、規制を促進する。
論文 参考訳(メタデータ) (2023-01-08T15:02:38Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - Towards a Roadmap on Software Engineering for Responsible AI [17.46300715928443]
本稿では,責任あるAIのためのソフトウェア工学のロードマップを作成することを目的とする。
ロードマップは、(i)責任AIシステムのためのマルチレベルガバナンスの確立、(ii)責任AIシステムのためのプロセス指向のプラクティスを取り入れた開発プロセスのセットアップ、(iii)システムレベルのアーキテクチャスタイル、パターン、テクニックを通じて責任AIをAIシステムにバイデザインする構築に焦点を当てている。
論文 参考訳(メタデータ) (2022-03-09T07:01:32Z) - Confident AI [0.0]
本稿では,人工知能(AI)と機械学習(ML)システムを,モデル予測と報告結果に対するアルゴリズムとユーザ信頼性の両方で設計する手段として,信頼AIを提案する。
Confident AIの4つの基本原則は、反復性、信頼性、十分性、適応性である。
論文 参考訳(メタデータ) (2022-02-12T02:26:46Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - A User-Centred Framework for Explainable Artificial Intelligence in
Human-Robot Interaction [70.11080854486953]
本稿では,XAIのソーシャル・インタラクティブな側面に着目したユーザ中心型フレームワークを提案する。
このフレームワークは、エキスパートでないユーザのために考えられた対話型XAIソリューションのための構造を提供することを目的としている。
論文 参考訳(メタデータ) (2021-09-27T09:56:23Z) - AI Failures: A Review of Underlying Issues [0.0]
私たちは、概念化、設計、デプロイメントの欠陥を考慮して、AIの失敗に焦点を当てています。
AIシステムは、AIシステムの設計において、欠落とコミッショニングエラーのために失敗する。
AIシステムは、事実上道徳的な判断を下すことが求められる状況で、かなり失敗する可能性が高い。
論文 参考訳(メタデータ) (2020-07-18T15:31:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。