論文の概要: Integrating Evidence into the Design of XAI and AI-based Decision Support Systems: A Means-End Framework for End-users in Construction
- arxiv url: http://arxiv.org/abs/2412.14209v2
- Date: Thu, 24 Jul 2025 06:11:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-25 15:10:40.835799
- Title: Integrating Evidence into the Design of XAI and AI-based Decision Support Systems: A Means-End Framework for End-users in Construction
- Title(参考訳): XAIとAIに基づく意思決定支援システムの設計にエビデンスを統合する:構築におけるエンドユーザーのための平均エンドフレームワーク
- Authors: Peter E. D. Love, Jane Matthews, Weili Fang, Hadi Mahamivanan,
- Abstract要約: 本稿では,XAI対応DSSを設計するための理論的,エビデンスに基づくエンドフレームワークを提案する。
それはAIが生成した説明をサポートするさまざまな種類の証拠の強さ、関連性、有用性を評価することに焦点を当てている。
- 参考スコア(独自算出の注目度): 0.1999925939110439
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Explainable Artificial Intelligence seeks to make the reasoning processes of AI models transparent and interpretable, particularly in complex decision making environments. In the construction industry, where AI based decision support systems are increasingly adopted, limited attention has been paid to the integration of supporting evidence that underpins the reliability and accountability of AI generated outputs. The absence of such evidence undermines the validity of explanations and the trustworthiness of system recommendations. This paper addresses this gap by introducing a theoretical, evidence based means end framework developed through a narrative review. The framework offers an epistemic foundation for designing XAI enabled DSS that generate meaningful explanations tailored to users knowledge needs and decision contexts. It focuses on evaluating the strength, relevance, and utility of different types of evidence supporting AI generated explanations. While developed with construction professionals as primary end users, the framework is also applicable to developers, regulators, and project managers with varying epistemic goals.
- Abstract(参考訳): 説明可能な人工知能は、特に複雑な意思決定環境において、AIモデルの推論プロセスを透明性と解釈可能にする。
AIベースの意思決定支援システムがますます採用されている建設業界では、AIが生成した出力の信頼性と説明責任を支える証拠の統合に、限られた注意が払われている。
このような証拠がないことは、説明の妥当性とシステムレコメンデーションの信頼性を損なう。
本稿では,理論的,エビデンスに基づく手段として,物語レビューを通じて開発されたエンドフレームワークを導入することで,このギャップを解消する。
このフレームワークはXAIを有効にしたDSSを設計するためのエピステミックな基盤を提供する。
それはAIが生成した説明をサポートするさまざまな種類の証拠の強さ、関連性、有用性を評価することに焦点を当てている。
建設専門家を主要なエンドユーザーとして開発する一方で、このフレームワークは開発者、規制当局、プロジェクトマネージャにも適用できる。
関連論文リスト
- Mind the XAI Gap: A Human-Centered LLM Framework for Democratizing Explainable AI [3.301842921686179]
我々は,専門家や非専門家のニーズに合わせて,透明性と人間中心の説明を保証する枠組みを導入する。
本フレームワークは,専門家以外の専門家が理解可能な1つの応答説明と専門家への技術的情報にカプセル化されている。
論文 参考訳(メタデータ) (2025-06-13T21:41:07Z) - Explainability in Context: A Multilevel Framework Aligning AI Explanations with Stakeholder with LLMs [11.11196150521188]
本稿では、AIに対する信頼が、説明書の設計と提供にどのように影響するかを論じる。
このフレームワークは、アルゴリズムとドメインベース、人間中心、社会的説明責任の3つのレイヤで構成されている。
論文 参考訳(メタデータ) (2025-06-06T08:54:41Z) - KERAIA: An Adaptive and Explainable Framework for Dynamic Knowledge Representation and Reasoning [46.85451489222176]
KERAIAはシンボリックナレッジエンジニアリングのための新しいフレームワークとソフトウェアプラットフォームである。
動的で複雑でコンテキストに敏感な環境で知識を表現、推論、実行するという永続的な課題に対処する。
論文 参考訳(メタデータ) (2025-05-07T10:56:05Z) - A Multi-Layered Research Framework for Human-Centered AI: Defining the Path to Explainability and Trust [2.4578723416255754]
人間中心型AI(HCAI)は人間の価値観との整合性を強調し、説明可能なAI(XAI)はAI決定をより理解しやすくすることで透明性を高める。
本稿では,HCAI と XAI を橋渡し,構造的説明可能性パラダイムを確立する新しい3層フレームワークを提案する。
我々の発見は、透明性、適応性、倫理的に整合したAIシステムを育成するHCXAI(Human-Centered Explainable AI)を前進させた。
論文 参考訳(メタデータ) (2025-04-14T01:29:30Z) - AI Automatons: AI Systems Intended to Imitate Humans [54.19152688545896]
人々の行動、仕事、能力、類似性、または人間性を模倣するように設計されたAIシステムが増加している。
このようなAIシステムの研究、設計、展開、可用性は、幅広い法的、倫理的、その他の社会的影響に対する懸念を喚起している。
論文 参考訳(メタデータ) (2025-03-04T03:55:38Z) - Combining AI Control Systems and Human Decision Support via Robustness and Criticality [53.10194953873209]
我々は、逆説(AE)の方法論を最先端の強化学習フレームワークに拡張する。
学習したAI制御システムは、敵のタンパリングに対する堅牢性を示す。
トレーニング/学習フレームワークでは、この技術は人間のインタラクションを通じてAIの決定と説明の両方を改善することができる。
論文 参考訳(メタデータ) (2024-07-03T15:38:57Z) - The AI-DEC: A Card-based Design Method for User-centered AI Explanations [20.658833770179903]
我々は,AIの説明の4次元を定義する設計手法であるAI-DECを開発した。
我々は、医療、金融、マネジメント産業の労働者との共同設計セッションを通じて、この手法を評価する。
実世界のシステムにおけるAI説明のユーザ中心設計におけるAI-DECの利用の意味について論じる。
論文 参考訳(メタデータ) (2024-05-26T22:18:38Z) - What Does Evaluation of Explainable Artificial Intelligence Actually Tell Us? A Case for Compositional and Contextual Validation of XAI Building Blocks [16.795332276080888]
本稿では,説明可能な人工知能システムのためのきめ細かい検証フレームワークを提案する。
技術的ビルディングブロック,ユーザによる説明的成果物,ソーシャルコミュニケーションプロトコルといった,モジュール構造の本質を認識します。
論文 参考訳(メタデータ) (2024-03-19T13:45:34Z) - PADTHAI-MM: Principles-based Approach for Designing Trustworthy, Human-centered AI using MAST Methodology [5.215782336985273]
マルチソースAIスコアカードテーブル(Multisource AI Scorecard Table, MAST)は、AI対応意思決定支援システムを評価するための、体系的かつトレードクラフト中心のアプローチを提供することによって、ギャップを埋めるように設計されている。
我々は,信頼に値する,人間中心のAIを設計するためのテキスト原則に基づくアプローチという,反復的な設計フレームワークを導入する。
我々はこの枠組みを防衛情報タスク報告支援(READIT)の開発において実証する。
論文 参考訳(メタデータ) (2024-01-24T23:15:44Z) - A Unifying Framework for Learning Argumentation Semantics [50.69905074548764]
Inductive Logic Programmingアプローチを用いて、抽象的および構造化された議論フレームワークのアクセシビリティセマンティクスを解釈可能な方法で学習する新しいフレームワークを提案する。
提案手法は既存の議論解法よりも優れており,フォーマルな議論や人間と機械の対話の領域において,新たな研究の方向性が開けることになる。
論文 参考訳(メタデータ) (2023-10-18T20:18:05Z) - Predictable Artificial Intelligence [77.1127726638209]
本稿では予測可能なAIのアイデアと課題を紹介する。
それは、現在および将来のAIエコシステムの重要な妥当性指標を予測できる方法を探る。
予測可能性を達成することは、AIエコシステムの信頼、責任、コントロール、アライメント、安全性を促進するために不可欠である、と私たちは主張する。
論文 参考訳(メタデータ) (2023-10-09T21:36:21Z) - A Semantic Approach to Decidability in Epistemic Planning (Extended
Version) [72.77805489645604]
我々は決定可能性を達成するために新しい意味論的アプローチを用いる。
具体的には、知識の論理S5$_n$と(知識)可換性と呼ばれる相互作用公理を拡大する。
我々は,本フレームワークが,独立した知識である共通知識の有限的非固定点的特徴を認めていることを証明した。
論文 参考訳(メタデータ) (2023-07-28T11:26:26Z) - Need-driven decision-making and prototyping for DLT: Framework and
web-based tool [0.0]
複数のグループが、この技術の誇大広告や論争から切り離そうとした。
我々は,エビデンスに基づく意思決定を行うための総合分析フレームワークとオープンソースWebツールを開発した。
論文 参考訳(メタデータ) (2023-07-18T12:19:47Z) - Designing explainable artificial intelligence with active inference: A
framework for transparent introspection and decision-making [0.0]
我々は、アクティブ推論がどのようにして説明可能なAIシステムの設計に活用できるかについて議論する。
能動推論を用いた説明可能なAIシステムのためのアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-06-06T21:38:09Z) - Design Space Exploration and Explanation via Conditional Variational
Autoencoders in Meta-model-based Conceptual Design of Pedestrian Bridges [52.77024349608834]
本稿では,条件付き変分オートエンコーダ(CVAE)による人間設計者向上のための性能駆動型設計探索フレームワークを提案する。
CVAEはスイスの歩行者橋の合成例18万件で訓練されている。
論文 参考訳(メタデータ) (2022-11-29T17:28:31Z) - Towards Human Cognition Level-based Experiment Design for Counterfactual
Explanations (XAI) [68.8204255655161]
XAI研究の重点は、より理解を深めるために、より実践的な説明アプローチに変わったようだ。
認知科学研究がXAIの進歩に大きく影響を与える可能性のある領域は、ユーザの知識とフィードバックを評価することである。
本研究では,異なる認知レベルの理解に基づく説明の生成と評価を実験する枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-31T19:20:22Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z) - A Computational Model of the Institutional Analysis and Development
Framework [0.0]
この研究は、IADフレームワークを計算モデルに変える最初の試みである。
IADフレームワークのコンポーネントに合わせて構文を調整し、社会的相互作用の記述に使用するアクション状況言語(ASL)を定義します。
これらのモデルはゲーム理論の標準的なツールを用いて分析し、どの結果が最もインセンティブ付けされているかを予測し、社会的に関係のある性質に基づいて評価することができる。
論文 参考訳(メタデータ) (2021-05-27T13:53:56Z) - Towards an Interface Description Template for AI-enabled Systems [77.34726150561087]
再利用(Reuse)は、システムアーキテクチャを既存のコンポーネントでインスタンス化しようとする、一般的なシステムアーキテクチャのアプローチである。
現在、コンポーネントが当初目的としていたものと異なるシステムで運用する可搬性を評価するために必要な情報の選択をガイドするフレームワークは存在しない。
我々は、AI対応コンポーネントの主情報をキャプチャするインターフェイス記述テンプレートの確立に向けて、現在進行中の作業について述べる。
論文 参考訳(メタデータ) (2020-07-13T20:30:26Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。