論文の概要: Explainable Artificial Intelligence in Construction: The Content,
Context, Process, Outcome Evaluation Framework
- arxiv url: http://arxiv.org/abs/2211.06561v1
- Date: Sat, 12 Nov 2022 03:50:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-15 17:59:49.807806
- Title: Explainable Artificial Intelligence in Construction: The Content,
Context, Process, Outcome Evaluation Framework
- Title(参考訳): 建設における説明可能な人工知能:コンテンツ、コンテキスト、プロセス、成果評価フレームワーク
- Authors: Peter ED Love, Jane Matthews, Weili Fang, Stuart Porter, Hanbin Luo
and Lieyun Ding
- Abstract要約: 我々は、XAIの採用と効果的な管理を正当化するために使用できるコンテンツ、コンテキスト、プロセス、成果評価フレームワークを開発する。
我々の新しいフレームワークは概念的だが、建設組織がXAIのビジネス価値と利益の実現に向けて進むための参考枠を提供する。
- 参考スコア(独自算出の注目度): 1.3375143521862154
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Explainable artificial intelligence is an emerging and evolving concept. Its
impact on construction, though yet to be realised, will be profound in the
foreseeable future. Still, XAI has received limited attention in construction.
As a result, no evaluation frameworks have been propagated to enable
construction organisations to understand the what, why, how, and when of XAI.
Our paper aims to fill this void by developing a content, context, process, and
outcome evaluation framework that can be used to justify the adoption and
effective management of XAI. After introducing and describing this novel
framework, we discuss its implications for future research. While our novel
framework is conceptual, it provides a frame of reference for construction
organisations to make headway toward realising XAI business value and benefits.
- Abstract(参考訳): 説明可能な人工知能は、新しく進化する概念である。
建設への影響はまだ実現されていないが、近い将来、その影響は深まるだろう。
それでも、XAIは建設において限定的な注目を集めている。
その結果、建設組織がXAIの何、なぜ、どのように、いつを理解できるかを理解するための評価枠組みが普及していない。
本稿では,XAIの採用と効果的管理を正当化するためのコンテンツ,コンテキスト,プロセス,成果評価フレームワークを開発することで,この空白を埋めることを目的とする。
この新フレームワークの紹介と解説の後、今後の研究にその意義について論じる。
我々の新しいフレームワークは概念的だが、建設組織がXAIのビジネス価値と利益の実現に向けて進むための参考枠を提供する。
関連論文リスト
- What Does Evaluation of Explainable Artificial Intelligence Actually Tell Us? A Case for Compositional and Contextual Validation of XAI Building Blocks [16.795332276080888]
本稿では,説明可能な人工知能システムのためのきめ細かい検証フレームワークを提案する。
技術的ビルディングブロック,ユーザによる説明的成果物,ソーシャルコミュニケーションプロトコルといった,モジュール構造の本質を認識します。
論文 参考訳(メタデータ) (2024-03-19T13:45:34Z) - Semantic Communications for Artificial Intelligence Generated Content
(AIGC) Toward Effective Content Creation [75.73229320559996]
本稿では,AIGCとSemComの統合の概念モデルを開発する。
AIGC技術を利用した新しいフレームワークが,意味情報のためのエンコーダおよびデコーダとして提案されている。
このフレームワークは、生成されたさまざまなタイプのコンテンツ、要求される品質、活用される意味情報に適応することができる。
論文 参考訳(メタデータ) (2023-08-09T13:17:21Z) - Unfinished Architectures: A Perspective from Artificial Intelligence [73.52315464582637]
人工知能(AI)の開発は、未完成のアーキテクチャの完成の可能性を提案する新たな道を開く。
DALL-Eのような最近のツールでは、テキスト記述でガイドされた画像が完成する。
本稿では、歴史的寺院の未完成のファサードの完成にこれらの新しいAIツールを使用することについて検討し、建築図学の分野におけるまだ老朽化したスタジアムの分析を行う。
論文 参考訳(メタデータ) (2023-03-03T13:05:10Z) - Charting the Sociotechnical Gap in Explainable AI: A Framework to
Address the Gap in XAI [29.33534897830558]
このギャップをグラフ化することで問題理解が向上し、説明可能性を改善するための実用的な洞察を反射的に提供できる、と我々は主張する。
我々は、社会技術的ギャップの体系的なチャート作成を容易にする枠組みを経験的に導き出した。
XAIの社会技術的ギャップを理解するための概念的かつ実践的な貢献により、このフレームワークはXAIデザイン空間を拡張している。
論文 参考訳(メタデータ) (2023-02-01T23:21:45Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - Explainable Artificial Intelligence: Precepts, Methods, and
Opportunities for Research in Construction [1.2622634782102324]
我々は,建設におけるその可能性に対する意識を高めるために,XAIの物語的レビューを提供する。
利害関係者のデシダラタとデータと情報融合に焦点を当てた将来のXAI研究の機会を特定し,議論する。
論文 参考訳(メタデータ) (2022-11-12T05:47:42Z) - Towards Human Cognition Level-based Experiment Design for Counterfactual
Explanations (XAI) [68.8204255655161]
XAI研究の重点は、より理解を深めるために、より実践的な説明アプローチに変わったようだ。
認知科学研究がXAIの進歩に大きく影響を与える可能性のある領域は、ユーザの知識とフィードバックを評価することである。
本研究では,異なる認知レベルの理解に基づく説明の生成と評価を実験する枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-31T19:20:22Z) - Connecting Algorithmic Research and Usage Contexts: A Perspective of
Contextualized Evaluation for Explainable AI [65.44737844681256]
説明可能なAI(XAI)を評価する方法に関するコンセンサスの欠如は、この分野の進歩を妨げる。
このギャップを埋める一つの方法は、異なるユーザ要求を考慮に入れた評価方法を開発することである、と我々は主張する。
論文 参考訳(メタデータ) (2022-06-22T05:17:33Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z) - XAI Handbook: Towards a Unified Framework for Explainable AI [5.716475756970092]
説明可能なAI(XAI)の分野は急速に繁栄し、多産なコミュニティになっている。
それぞれの新しい貢献は、それぞれ独自の(そしてしばしば直感的な)「説明」や「解釈」といった用語に依存するように見える。
我々は,これらの用語の具体的定義を提供するだけでなく,説明や解釈に必要なすべてのステップを概説する理論的枠組みを提案する。
論文 参考訳(メタデータ) (2021-05-14T07:28:21Z) - Expanding Explainability: Towards Social Transparency in AI systems [20.41177660318785]
社会透明性(英: Social Transparency、ST)とは、社会的な組織的文脈をAIによる意思決定の説明に取り入れた社会工学的な視点である。
XAIの設計空間を拡大することで、人間中心XAIの議論に貢献しています。
論文 参考訳(メタデータ) (2021-01-12T19:44:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。