論文の概要: MATCH: Engineering Transparent and Controllable Conversational XAI Systems through Composable Building Blocks
- arxiv url: http://arxiv.org/abs/2511.22420v1
- Date: Thu, 27 Nov 2025 12:58:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-01 19:47:55.570587
- Title: MATCH: Engineering Transparent and Controllable Conversational XAI Systems through Composable Building Blocks
- Title(参考訳): MATCH:構成可能なビルディングブロックによる透明で制御可能な会話型XAIシステム
- Authors: Sebe Vanbrabant, Gustavo Rovelo Ruiz, Davy Vanacken,
- Abstract要約: MATCH(Multi-Agent Transparent and Controllable Human-centered system)のフレームワークとして,フローベースアプローチとビルディングブロックの選択について述べる。
本研究は,既存の対話型システムへの解釈可能性の統合を促進することによって,(対話型) XAI の分野に寄与する。
- 参考スコア(独自算出の注目度): 0.254890465057467
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: While the increased integration of AI technologies into interactive systems enables them to solve an increasing number of tasks, the black-box problem of AI models continues to spread throughout the interactive system as a whole. Explainable AI (XAI) techniques can make AI models more accessible by employing post-hoc methods or transitioning to inherently interpretable models. While this makes individual AI models clearer, the overarching system architecture remains opaque. This challenge not only pertains to standard XAI techniques but also to human examination and conversational XAI approaches that need access to model internals to interpret them correctly and completely. To this end, we propose conceptually representing such interactive systems as sequences of structural building blocks. These include the AI models themselves, as well as control mechanisms grounded in literature. The structural building blocks can then be explained through complementary explanatory building blocks, such as established XAI techniques like LIME and SHAP. The flow and APIs of the structural building blocks form an unambiguous overview of the underlying system, serving as a communication basis for both human and automated agents, thus aligning human and machine interpretability of the embedded AI models. In this paper, we present our flow-based approach and a selection of building blocks as MATCH: a framework for engineering Multi-Agent Transparent and Controllable Human-centered systems. This research contributes to the field of (conversational) XAI by facilitating the integration of interpretability into existing interactive systems.
- Abstract(参考訳): 対話型システムへのAIテクノロジの統合の増大により、ますます多くのタスクが解決される一方で、AIモデルのブラックボックス問題は、対話型システム全体にわたって広がり続けている。
説明可能なAI(XAI)技術は、ポストホックメソッドを使用したり、本質的に解釈可能なモデルに移行することで、AIモデルをよりアクセスしやすくする。
これにより、個々のAIモデルはより明確になるが、体系的なシステムアーキテクチャは不透明である。
この課題は、標準的なXAI技術だけでなく、モデル内部へのアクセスを必要とする人間の検査や会話型XAIアプローチにも関係している。
そこで本研究では,このような対話型システムを構造ブロックのシーケンスとして概念的に表現することを提案する。
これには、AIモデル自体や、文学に根ざした制御メカニズムが含まれる。
構造的ビルディングブロックは、LIMEやSHAPといった確立したXAI技術のような補完的な説明的ビルディングブロックを通じて説明することができる。
構造的ビルディングブロックのフローとAPIは、人間と自動化されたエージェントのコミュニケーション基盤として機能し、組み込みAIモデルの人間と機械の解釈可能性を調整する、基盤となるシステムの曖昧な概要を形成する。
本稿では,MATCH(Multi-Agent Transparent and Controllable Human-centered System)として,フローベースアプローチとビルディングブロックの選択について述べる。
本研究は,既存の対話型システムへの解釈可能性の統合を促進することによって,(対話型) XAI の分野に寄与する。
関連論文リスト
- Embodied AI: From LLMs to World Models [65.68972714346909]
人工知能(AI)は、人工知能(AGI)を実現するためのインテリジェントシステムパラダイムである。
近年のLarge Language Models(LLMs)とWorld Models(WMs)のブレークスルーは、AIを具現化する上で大きな注目を集めている。
論文 参考訳(メタデータ) (2025-09-24T11:37:48Z) - Explain and Monitor Deep Learning Models for Computer Vision using Obz AI [2.406359246841227]
Obz AIは、ビジョンAIシステムの最先端の説明可能性と可観測性を促進するために設計された、包括的なソフトウェアエコシステムである。
Obz AIは、Pythonクライアントライブラリからフルスタック分析ダッシュボードまで、シームレスな統合パイプラインを提供する。
論文 参考訳(メタデータ) (2025-08-25T16:46:21Z) - Composable Building Blocks for Controllable and Transparent Interactive AI Systems [0.8192907805418583]
AIモデルのブラックボックス問題は、全体としてインタラクティブシステム全体に広まり続けている。
XAI技術は、ポストホックメソッドを採用するか、本質的に解釈可能なモデルに移行することで、AIモデルをよりアクセスしやすくする。
本稿では,対話型システムを構造ブロックのシーケンスとして表現する手法を提案する。
論文 参考訳(メタデータ) (2025-06-02T21:10:51Z) - AI Automatons: AI Systems Intended to Imitate Humans [54.19152688545896]
人々の行動、仕事、能力、類似性、または人間性を模倣するように設計されたAIシステムが増加している。
このようなAIシステムの研究、設計、展開、可用性は、幅広い法的、倫理的、その他の社会的影響に対する懸念を喚起している。
論文 参考訳(メタデータ) (2025-03-04T03:55:38Z) - XEdgeAI: A Human-centered Industrial Inspection Framework with Data-centric Explainable Edge AI Approach [2.0209172586699173]
本稿では,新しいXAI統合視覚品質検査フレームワークを提案する。
我々のフレームワークはXAIとLarge Vision Language Modelを組み込んで人間中心の解釈可能性を提供する。
このアプローチは、重要な産業アプリケーションに信頼性と解釈可能なAIツールを広く採用する道を開くものだ。
論文 参考訳(メタデータ) (2024-07-16T14:30:24Z) - Towards a general framework for improving the performance of classifiers using XAI methods [0.0]
本稿では,XAI手法を用いた事前学習型ディープラーニング(DL)分類器の性能向上のためのフレームワークを提案する。
オートエンコーダベースおよびエンコーダデコーダベースと呼び、それらの重要な側面について議論する。
論文 参考訳(メタデータ) (2024-03-15T15:04:20Z) - Pangu-Agent: A Fine-Tunable Generalist Agent with Structured Reasoning [50.47568731994238]
人工知能(AI)エージェント作成の鍵となる方法は強化学習(RL)である
本稿では,構造化推論をAIエージェントのポリシーに統合し,学習するための一般的なフレームワークモデルを提案する。
論文 参考訳(メタデータ) (2023-12-22T17:57:57Z) - A User-Centred Framework for Explainable Artificial Intelligence in
Human-Robot Interaction [70.11080854486953]
本稿では,XAIのソーシャル・インタラクティブな側面に着目したユーザ中心型フレームワークを提案する。
このフレームワークは、エキスパートでないユーザのために考えられた対話型XAIソリューションのための構造を提供することを目的としている。
論文 参考訳(メタデータ) (2021-09-27T09:56:23Z) - Explainable Artificial Intelligence (XAI): An Engineering Perspective [0.0]
XAIは、いわゆるブラックボックスAIアルゴリズムをホワイトボックスアルゴリズムに変換するテクニックと方法のセットです。
XAIのステークホルダを議論し、エンジニアリングの観点からXAIの数学的輪郭を説明します。
この研究は、XAIの分野における研究の新しい道を特定するための探索的研究です。
論文 参考訳(メタデータ) (2021-01-10T19:49:12Z) - Towards an Interface Description Template for AI-enabled Systems [77.34726150561087]
再利用(Reuse)は、システムアーキテクチャを既存のコンポーネントでインスタンス化しようとする、一般的なシステムアーキテクチャのアプローチである。
現在、コンポーネントが当初目的としていたものと異なるシステムで運用する可搬性を評価するために必要な情報の選択をガイドするフレームワークは存在しない。
我々は、AI対応コンポーネントの主情報をキャプチャするインターフェイス記述テンプレートの確立に向けて、現在進行中の作業について述べる。
論文 参考訳(メタデータ) (2020-07-13T20:30:26Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。