論文の概要: Integrating Evidence into the Design of XAI and AI-based Decision Support Systems: A Means-End Framework for End-users in Construction
- arxiv url: http://arxiv.org/abs/2412.14209v1
- Date: Tue, 17 Dec 2024 13:02:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-20 13:30:21.251644
- Title: Integrating Evidence into the Design of XAI and AI-based Decision Support Systems: A Means-End Framework for End-users in Construction
- Title(参考訳): XAIとAIに基づく意思決定支援システムの設計にエビデンスを統合する:構築におけるエンドユーザーのための平均エンドフレームワーク
- Authors: Peter . E. D. Love, Jane Matthews, Weili Fang, Hadi Mahamivanan,
- Abstract要約: 本稿では,説明可能な人工知能機器を裏付ける理論的エビデンスに基づく手段エンドフレームワークを開発する。
建設やその他の工学分野でも使用できることが示唆されている。
- 参考スコア(独自算出の注目度): 0.1999925939110439
- License:
- Abstract: A narrative review is used to develop a theoretical evidence-based means-end framework to build an epistemic foundation to uphold explainable artificial intelligence instruments so that the reliability of outcomes generated from decision support systems can be assured and better explained to end-users. The implications of adopting an evidence-based approach to designing decision support systems in construction are discussed with emphasis placed on evaluating the strength, value, and utility of evidence needed to develop meaningful human explanations for end-users. While the developed means-end framework is focused on end-users, stakeholders can also utilize it to create meaningful human explanations. However, they will vary due to their different epistemic goals. Including evidence in the design and development of explainable artificial intelligence and decision support systems will improve decision-making effectiveness, enabling end-users' epistemic goals to be achieved. The proposed means-end framework is developed from a broad spectrum of literature. Thus, it is suggested that it can be used in construction and other engineering domains where there is a need to integrate evidence into the design of explainable artificial intelligence and decision support systems.
- Abstract(参考訳): 物語レビューは、決定支援システムから生成された結果の信頼性を保証し、エンドユーザによりよく説明できるように、説明可能な人工知能機器を支えるための認識基盤を構築するための理論的エビデンスベースの手段エンドフレームワークを開発するために使用される。
建設における意思決定支援システムの設計にエビデンスに基づくアプローチを採用することは、エンドユーザーにとって有意義な人的説明を開発するために必要なエビデンスの強さ、価値、有用性を評価することに重点を置いている。
開発された平均的なフレームワークはエンドユーザーに焦点を当てているが、利害関係者はそれを利用して有意義な人間的説明を作成することもできる。
しかし、それらは異なる認識的目標によって異なる。
説明可能な人工知能と意思決定支援システムの設計と開発におけるエビデンスを含めると、意思決定の有効性が向上し、エンドユーザの認識目標が達成される。
提案手法は,幅広い文献から開発されている。
したがって、説明可能な人工知能や意思決定支援システムの設計にエビデンスを統合する必要がある場合、建設や他の工学領域で使用できることが示唆された。
関連論文リスト
- The AI-DEC: A Card-based Design Method for User-centered AI Explanations [20.658833770179903]
我々は,AIの説明の4次元を定義する設計手法であるAI-DECを開発した。
我々は、医療、金融、マネジメント産業の労働者との共同設計セッションを通じて、この手法を評価する。
実世界のシステムにおけるAI説明のユーザ中心設計におけるAI-DECの利用の意味について論じる。
論文 参考訳(メタデータ) (2024-05-26T22:18:38Z) - What Does Evaluation of Explainable Artificial Intelligence Actually Tell Us? A Case for Compositional and Contextual Validation of XAI Building Blocks [16.795332276080888]
本稿では,説明可能な人工知能システムのためのきめ細かい検証フレームワークを提案する。
技術的ビルディングブロック,ユーザによる説明的成果物,ソーシャルコミュニケーションプロトコルといった,モジュール構造の本質を認識します。
論文 参考訳(メタデータ) (2024-03-19T13:45:34Z) - A Unifying Framework for Learning Argumentation Semantics [50.69905074548764]
Inductive Logic Programmingアプローチを用いて、抽象的および構造化された議論フレームワークのアクセシビリティセマンティクスを解釈可能な方法で学習する新しいフレームワークを提案する。
提案手法は既存の議論解法よりも優れており,フォーマルな議論や人間と機械の対話の領域において,新たな研究の方向性が開けることになる。
論文 参考訳(メタデータ) (2023-10-18T20:18:05Z) - Predictable Artificial Intelligence [77.1127726638209]
本稿では予測可能なAIのアイデアと課題を紹介する。
それは、現在および将来のAIエコシステムの重要な妥当性指標を予測できる方法を探る。
予測可能性を達成することは、AIエコシステムの信頼、責任、コントロール、アライメント、安全性を促進するために不可欠である、と私たちは主張する。
論文 参考訳(メタデータ) (2023-10-09T21:36:21Z) - A Semantic Approach to Decidability in Epistemic Planning (Extended
Version) [72.77805489645604]
我々は決定可能性を達成するために新しい意味論的アプローチを用いる。
具体的には、知識の論理S5$_n$と(知識)可換性と呼ばれる相互作用公理を拡大する。
我々は,本フレームワークが,独立した知識である共通知識の有限的非固定点的特徴を認めていることを証明した。
論文 参考訳(メタデータ) (2023-07-28T11:26:26Z) - Need-driven decision-making and prototyping for DLT: Framework and
web-based tool [0.0]
複数のグループが、この技術の誇大広告や論争から切り離そうとした。
我々は,エビデンスに基づく意思決定を行うための総合分析フレームワークとオープンソースWebツールを開発した。
論文 参考訳(メタデータ) (2023-07-18T12:19:47Z) - Designing explainable artificial intelligence with active inference: A
framework for transparent introspection and decision-making [0.0]
我々は、アクティブ推論がどのようにして説明可能なAIシステムの設計に活用できるかについて議論する。
能動推論を用いた説明可能なAIシステムのためのアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-06-06T21:38:09Z) - Design Space Exploration and Explanation via Conditional Variational
Autoencoders in Meta-model-based Conceptual Design of Pedestrian Bridges [52.77024349608834]
本稿では,条件付き変分オートエンコーダ(CVAE)による人間設計者向上のための性能駆動型設計探索フレームワークを提案する。
CVAEはスイスの歩行者橋の合成例18万件で訓練されている。
論文 参考訳(メタデータ) (2022-11-29T17:28:31Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z) - A Computational Model of the Institutional Analysis and Development
Framework [0.0]
この研究は、IADフレームワークを計算モデルに変える最初の試みである。
IADフレームワークのコンポーネントに合わせて構文を調整し、社会的相互作用の記述に使用するアクション状況言語(ASL)を定義します。
これらのモデルはゲーム理論の標準的なツールを用いて分析し、どの結果が最もインセンティブ付けされているかを予測し、社会的に関係のある性質に基づいて評価することができる。
論文 参考訳(メタデータ) (2021-05-27T13:53:56Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。