論文の概要: Emergent, not Immanent: A Baradian Reading of Explainable AI
- arxiv url: http://arxiv.org/abs/2601.15029v1
- Date: Wed, 21 Jan 2026 14:32:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-22 21:27:50.395246
- Title: Emergent, not Immanent: A Baradian Reading of Explainable AI
- Title(参考訳): 永遠ではなく創発的: 説明可能なAIを読むバラディアン
- Authors: Fabio Morreale, Joan Serrà, Yuki Mistufuji,
- Abstract要約: 我々は、人間、文脈、解釈装置とのAIモデルの位置的絡み合いから解釈が現れることを論じる。
本稿では,創発的解釈を支援するXAIインタフェースの設計指針を提案する。
- 参考スコア(独自算出の注目度): 9.9788403305879
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Explainable AI (XAI) is frequently positioned as a technical problem of revealing the inner workings of an AI model. This position is affected by unexamined onto-epistemological assumptions: meaning is treated as immanent to the model, the explainer is positioned outside the system, and a causal structure is presumed recoverable through computational techniques. In this paper, we draw on Barad's agential realism to develop an alternative onto-epistemology of XAI. We propose that interpretations are material-discursive performances that emerge from situated entanglements of the AI model with humans, context, and the interpretative apparatus. To develop this position, we read a comprehensive set of XAI methods through agential realism and reveal the assumptions and limitations that underpin several of these methods. We then articulate the framework's ethical dimension and propose design directions for XAI interfaces that support emergent interpretation, using a speculative text-to-music interface as a case study.
- Abstract(参考訳): 説明可能なAI(XAI)はしばしば、AIモデルの内部動作を明らかにする技術的問題として位置づけられている。
意味はモデルに忠実に扱われ、説明者はシステム外に配置され、因果構造は計算技術によって復元可能であると推定される。
本稿では,バラドのエージェント的リアリズムを参考に,XAIの代替的なオン・エプストロジーを開発する。
本稿では,AIモデルの人間,文脈,解釈装置との絡み合いから生じる物質的発見的パフォーマンスについて提案する。
そこで本研究では,エージェントリアリズムによる総合的なXAI手法の集合を読み,これらの手法の基盤となる仮定と限界を明らかにする。
次に,フレームワークの倫理的側面を明確にし,創発的解釈を支援するXAIインタフェースの設計方向性を事例研究として,投機的テキスト・音楽的インタフェースを用いて提案する。
関連論文リスト
- Onto-Epistemological Analysis of AI Explanations [8.570570532582446]
本稿では、モデル決定プロセスの説明を提供する説明可能なAI(XAI)手法について論じる。
我々は,XAI手法の技術的変化が,説明に関する前提条件の重要な相違にどのように対応するかを示す。
また、特定のアプリケーションに対してXAIメソッドを選択する際に、基礎となるオン・エコロジーパラダイムを無視するリスクも強調する。
論文 参考訳(メタデータ) (2025-10-03T13:36:57Z) - KERAIA: An Adaptive and Explainable Framework for Dynamic Knowledge Representation and Reasoning [46.85451489222176]
KERAIAはシンボリックナレッジエンジニアリングのための新しいフレームワークとソフトウェアプラットフォームである。
動的で複雑でコンテキストに敏感な環境で知識を表現、推論、実行するという永続的な課題に対処する。
論文 参考訳(メタデータ) (2025-05-07T10:56:05Z) - A Mechanistic Explanatory Strategy for XAI [0.0]
本稿では,ディープラーニングシステムの機能的構造を説明するためのメカニズム的戦略を概説する。
この結果は,機械的説明の追求が,従来の説明可能性技術が見落としている要素を明らかにすることを示唆している。
論文 参考訳(メタデータ) (2024-11-02T18:30:32Z) - Towards Symbolic XAI -- Explanation Through Human Understandable Logical Relationships Between Features [19.15360328688008]
本稿では,入力特徴間の論理的関係を表すシンボリッククエリに関連性を持つ,シンボリックXAIというフレームワークを提案する。
このフレームワークは、ユーザーによるカスタマイズと人間可読性の両方に柔軟性のある、モデルの意思決定プロセスを理解する。
論文 参考訳(メタデータ) (2024-08-30T10:52:18Z) - Evolutionary Computation and Explainable AI: A Roadmap to Understandable Intelligent Systems [37.02462866600066]
進化的計算(EC)は、説明可能なAI(XAI)に寄与する大きな可能性を提供する
本稿では、XAIの紹介を行い、機械学習モデルを説明するための現在の技術についてレビューする。
次に、ECがXAIでどのように活用できるかを検討し、ECテクニックを取り入れた既存のXAIアプローチを調べます。
論文 参考訳(メタデータ) (2024-06-12T02:06:24Z) - Towards Human Cognition Level-based Experiment Design for Counterfactual
Explanations (XAI) [68.8204255655161]
XAI研究の重点は、より理解を深めるために、より実践的な説明アプローチに変わったようだ。
認知科学研究がXAIの進歩に大きく影響を与える可能性のある領域は、ユーザの知識とフィードバックを評価することである。
本研究では,異なる認知レベルの理解に基づく説明の生成と評価を実験する枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-31T19:20:22Z) - Connecting Algorithmic Research and Usage Contexts: A Perspective of
Contextualized Evaluation for Explainable AI [65.44737844681256]
説明可能なAI(XAI)を評価する方法に関するコンセンサスの欠如は、この分野の進歩を妨げる。
このギャップを埋める一つの方法は、異なるユーザ要求を考慮に入れた評価方法を開発することである、と我々は主張する。
論文 参考訳(メタデータ) (2022-06-22T05:17:33Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。