論文の概要: LeanAI: A method for AEC practitioners to effectively plan AI
implementations
- arxiv url: http://arxiv.org/abs/2306.16799v1
- Date: Thu, 29 Jun 2023 09:18:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-30 14:09:50.554321
- Title: LeanAI: A method for AEC practitioners to effectively plan AI
implementations
- Title(参考訳): LeanAI:AI実装を効果的に計画するAEC実践者のための方法
- Authors: Ashwin Agrawal, Vishal Singh, and Martin Fischer
- Abstract要約: AIの使用に関する熱意にもかかわらず、現在のビッグデータプロジェクトの85%は失敗している。
AEC業界でAIプロジェクトが失敗する主な理由の1つは、AIの計画や使用を決定した人とそれを実装する人との接続を断つことである。
この研究はLeanAIメソッドを導入し、AIが解決すべきもの、解決すべきもの、解決すべきものを説明する。
- 参考スコア(独自算出の注目度): 1.213096549055645
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Recent developments in Artificial Intelligence (AI) provide unprecedented
automation opportunities in the Architecture, Engineering, and Construction
(AEC) industry. However, despite the enthusiasm regarding the use of AI, 85% of
current big data projects fail. One of the main reasons for AI project failures
in the AEC industry is the disconnect between those who plan or decide to use
AI and those who implement it. AEC practitioners often lack a clear
understanding of the capabilities and limitations of AI, leading to a failure
to distinguish between what AI should solve, what it can solve, and what it
will solve, treating these categories as if they are interchangeable. This lack
of understanding results in the disconnect between AI planning and
implementation because the planning is based on a vision of what AI should
solve without considering if it can or will solve it. To address this
challenge, this work introduces the LeanAI method. The method has been
developed using data from several ongoing longitudinal studies analyzing AI
implementations in the AEC industry, which involved 50+ hours of interview
data. The LeanAI method delineates what AI should solve, what it can solve, and
what it will solve, forcing practitioners to clearly articulate these
components early in the planning process itself by involving the relevant
stakeholders. By utilizing the method, practitioners can effectively plan AI
implementations, thus increasing the likelihood of success and ultimately
speeding up the adoption of AI. A case example illustrates the usefulness of
the method.
- Abstract(参考訳): 人工知能(AI)の最近の発展は、建築、工学、建設(AEC)業界において前例のない自動化の機会を提供する。
しかし、AIの使用に関する熱意にもかかわらず、現在のビッグデータプロジェクトの85%は失敗している。
AEC業界でAIプロジェクトが失敗する主な理由の1つは、AIの計画や使用を決定した人とそれを実装する人との接続の切断である。
AECの実践者は、AIの能力と限界を明確に理解していないことが多く、AIが解決すべきもの、解決すべきもの、解決すべきものを明確に区別することができない。
この理解の欠如は、ai計画が解決できるかどうかを考慮せずに、aiが何を解決するべきかというビジョンに基づいているため、ai計画と実装の切り離しに繋がる。
この課題に対処するために、この研究はLeanAIメソッドを導入している。
この手法は、50時間以上のインタビューデータを含むAEC産業におけるAI実装の分析を継続するいくつかの縦断研究のデータを用いて開発されている。
LeanAIメソッドは、AIが解決すべきもの、解決すべきもの、解決すべきものについて記述し、実践者が関連するステークホルダーを巻き込むことで、計画プロセスの初期段階でこれらのコンポーネントを明確に表現することを強制する。
この方法を利用することで、実践者はAI実装を効果的に計画し、成功の可能性を高め、最終的にはAIの採用をスピードアップすることができる。
ケース例は、メソッドの有用性を例示します。
関連論文リスト
- AI Thinking: A framework for rethinking artificial intelligence in practice [2.9805831933488127]
現在、AIの実践についての研究、開発、評価に様々な分野が関わっている。
新しい学際的アプローチは、実際にAIの競合する概念化を橋渡しするために必要である。
このフレームワークは、学際的な視点でAIの使用に関する重要な決定と考察をモデル化する。
論文 参考訳(メタデータ) (2024-08-26T04:41:21Z) - Particip-AI: A Democratic Surveying Framework for Anticipating Future AI Use Cases, Harms and Benefits [54.648819983899614]
汎用AIは、一般大衆がAIを使用してそのパワーを利用するための障壁を下げたようだ。
本稿では,AI利用事例とその影響を推測し,評価するためのフレームワークであるPartICIP-AIを紹介する。
論文 参考訳(メタデータ) (2024-03-21T19:12:37Z) - AI-in-the-Loop -- The impact of HMI in AI-based Application [0.0]
我々は,AIと人間の強みを組み合わせたループ型AIの概念を導入する。
AIを使用した推論でHMIを有効にすることで、AIと人間の強みを組み合わせた、ループ内のAIの概念を導入します。
論文 参考訳(メタデータ) (2023-03-21T00:04:33Z) - The Role of AI in Drug Discovery: Challenges, Opportunities, and
Strategies [97.5153823429076]
この分野でのAIのメリット、課題、欠点についてレビューする。
データ拡張、説明可能なAIの使用、従来の実験手法とAIの統合についても論じている。
論文 参考訳(メタデータ) (2022-12-08T23:23:39Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - A Deployment Model to Extend Ethically Aligned AI Implementation Method
ECCOLA [5.28595286827031]
本研究の目的は、ECCOLAの採用を促進するために、ECCOLAをデプロイメントモデルで拡張することである。
このモデルには、倫理的AI開発における倫理的ギャップや成果のコミュニケーションを容易にするための単純なメトリクスが含まれている。
論文 参考訳(メタデータ) (2021-10-12T12:22:34Z) - A User-Centred Framework for Explainable Artificial Intelligence in
Human-Robot Interaction [70.11080854486953]
本稿では,XAIのソーシャル・インタラクティブな側面に着目したユーザ中心型フレームワークを提案する。
このフレームワークは、エキスパートでないユーザのために考えられた対話型XAIソリューションのための構造を提供することを目的としている。
論文 参考訳(メタデータ) (2021-09-27T09:56:23Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - ECCOLA -- a Method for Implementing Ethically Aligned AI Systems [11.31664099885664]
本稿では,AI倫理を実践する手法を提案する。
この手法であるECCOLAは循環行動設計研究手法を用いて反復的に開発されている。
論文 参考訳(メタデータ) (2020-04-17T17:57:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。