論文の概要: Scientific Theory of a Black-Box: A Life Cycle-Scale XAI Framework Based on Constructive Empiricism
- arxiv url: http://arxiv.org/abs/2602.02215v1
- Date: Mon, 02 Feb 2026 15:19:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 19:28:34.250027
- Title: Scientific Theory of a Black-Box: A Life Cycle-Scale XAI Framework Based on Constructive Empiricism
- Title(参考訳): ブラックボックスの科学的理論:構成的経験主義に基づくライフサイクルスケールXAIフレームワーク
- Authors: Sebastian Müller, Vanessa Toborek, Eike Stadtländer, Tamás Horváth, Brendan Balcerak Jackson, Christian Bauckhage,
- Abstract要約: 我々は、黒(SToBB)の科学的理論について紹介する。
SToBBは、3つの義務を果たす: (i) ブラックボックスの振る舞いに関するすべての観察に関する経験的妥当性、 (ii) 明示的な更新コミットメントによる適応性、 (iii) 透明なドキュメントによる監査性。
我々はこれらの義務を、観測基盤、トレーサブル仮説、構築と修正のためのアルゴリズムコンポーネント、ドキュメントを規定する一般的なフレームワークとして運用する。
- 参考スコア(独自算出の注目度): 3.465726901845516
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Explainable AI (XAI) offers a growing number of algorithms that aim to answer specific questions about black-box models. What is missing is a principled way to consolidate explanatory information about a fixed black-box model into a persistent, auditable artefact, that accompanies the black-box throughout its life cycle. We address this gap by introducing the notion of a scientific theory of a black (SToBB). Grounded in Constructive Empiricism, a SToBB fulfils three obligations: (i) empirical adequacy with respect to all available observations of black-box behaviour, (ii) adaptability via explicit update commitments that restore adequacy when new observations arrive, and (iii) auditability through transparent documentation of assumptions, construction choices, and update behaviour. We operationalise these obligations as a general framework that specifies an extensible observation base, a traceable hypothesis class, algorithmic components for construction and revision, and documentation sufficient for third-party assessment. Explanations for concrete stakeholder needs are then obtained by querying the maintained record through interfaces, rather than by producing isolated method outputs. As a proof of concept, we instantiate a complete SToBB for a neural-network classifier on a tabular task and introduce the Constructive Box Theoriser (CoBoT) algorithm, an online procedure that constructs and maintains an empirically adequate rule-based surrogate as observations accumulate. Together, these contributions position SToBBs as a life cycle-scale, inspectable point of reference that supports consistent, reusable analyses and systematic external scrutiny.
- Abstract(参考訳): 説明可能なAI(XAI)は、ブラックボックスモデルに関する特定の質問に答えるためのアルゴリズムが増えている。
欠けているのは、固定されたブラックボックスモデルに関する説明情報を、ライフサイクルを通じてブラックボックスに付随する永続的で監査可能なアーティファクトに統合する原則的な方法だ。
我々はこのギャップに,黒(SToBB)の科学的理論を導入することで対処する。
構成的経験主義を基礎として、STOBBは3つの義務を履行する。
一 ブラックボックスの行動に関するすべての観察に関する実証的妥当性
二 新しい観測が到着したときの適合性を回復する明示的な更新の約束による適応性
三 前提、建設選択及び更新行動の透明な文書による監査可能性。
我々は,これらの義務を,拡張可能な観測基盤,トレース可能な仮説クラス,構築と修正のためのアルゴリズムコンポーネント,サードパーティによる評価に十分なドキュメンテーションとして運用する。
具体的なステークホルダーのニーズの説明は、独立したメソッド出力を生成するのではなく、インターフェイスを介して保持されたレコードをクエリすることで得られる。
概念実証として、表計算タスク上でニューラルネットワーク分類器のための完全なSToBBをインスタンス化し、観察が蓄積されるにつれて、経験的に適切なルールベースのサロゲートを構築し維持するオンラインプロシージャであるConstructive Box Theoriser (CoBoT)アルゴリズムを導入する。
これらの貢献により、SToBBは、一貫した再利用可能な分析と系統的な外部監視をサポートするライフサイクルスケールで検査可能な参照ポイントとして位置づけられる。
関連論文リスト
- Reasoning-Driven Amodal Completion: Collaborative Agents and Perceptual Evaluation [17.405818788700234]
本稿では,視覚合成から意味的計画を明確に分離する協調的マルチエージェント推論フレームワークを提案する。
提案手法は,画素生成前の構造的,明示的なプランを生成し,視覚的,意味的に整合した単一パス合成を可能にする。
従来の評価基準の限界に対処し,新しい人間対応評価指標MAC-Scoreを導入する。
論文 参考訳(メタデータ) (2025-12-24T04:39:45Z) - CIR-CoT: Towards Interpretable Composed Image Retrieval via End-to-End Chain-of-Thought Reasoning [93.05917922306196]
Composed Image Retrieval (CIR) は、参照画像と修正テキストから対象画像を見つけることを目的としている。
CIR-CoTは、明示的なChain-of-Thought (CoT)推論を統合するために設計された最初のエンドツーエンド検索指向MLLMである。
論文 参考訳(メタデータ) (2025-10-09T09:41:45Z) - Analyzing Latent Concepts in Code Language Models [10.214183897113118]
グローバルなポストホック解釈可能性フレームワークであるコード概念分析(CoCoA)を提案する。
CoCoAは、コード言語モデルの表現空間における創発的語彙、構文、意味構造を明らかにする。
本稿では,静的解析ツールをベースとした構文アライメントと,プロンプトエンジニアリングによる大規模言語モデルを組み合わせたハイブリッドアノテーションパイプラインを提案する。
論文 参考訳(メタデータ) (2025-10-01T03:53:21Z) - I Predict Therefore I Am: Is Next Token Prediction Enough to Learn Human-Interpretable Concepts from Data? [76.15163242945813]
大規模言語モデル (LLM) は、多くの人が知能の形式を示すと結論づけている。
本稿では,潜在離散変数として表現される人間解釈可能な概念に基づいてトークンを生成する新しい生成モデルを提案する。
論文 参考訳(メタデータ) (2025-03-12T01:21:17Z) - Bayesian Concept Bottleneck Models with LLM Priors [8.895722261818209]
概念ボトルネックモデル (CBM) は、ホワイトボックスモデルとブラックボックスモデルの間の妥協として提案されており、精度を犠牲にすることなく解釈性を実現することを目的としている。
BC-LLM はベイズフレームワーク内の潜在的無限の概念を反復的に探索し、Large Language Models (LLM) が概念抽出のメカニズムと事前の両方として機能する。
論文 参考訳(メタデータ) (2024-10-21T01:00:33Z) - Rethinking State Disentanglement in Causal Reinforcement Learning [78.12976579620165]
因果性は、根底にある状態が識別可能性によって一意に回復できることを保証するための厳密な理論的支援を提供する。
我々はこの研究ラインを再考し、RL固有のコンテキストを取り入れることで、潜在状態に対する以前の識別可能性分析における不要な仮定を低減できることを示した。
本稿では, 従来手法の複雑な構造制約を, 遷移と報酬保存の2つの簡単な制約に置き換えることにより, 一般に部分的に観測可能なマルコフ決定過程(POMDP)を提案する。
論文 参考訳(メタデータ) (2024-08-24T06:49:13Z) - The Foundations of Tokenization: Statistical and Computational Concerns [51.370165245628975]
トークン化は、NLPパイプラインにおける重要なステップである。
NLPにおける標準表現法としての重要性は認識されているが、トークン化の理論的基盤はまだ完全には理解されていない。
本稿では,トークン化モデルの表現と解析のための統一的な形式的枠組みを提案することによって,この理論的ギャップに対処することに貢献している。
論文 参考訳(メタデータ) (2024-07-16T11:12:28Z) - Explainability in Process Outcome Prediction: Guidelines to Obtain
Interpretable and Faithful Models [77.34726150561087]
本稿では、プロセス結果予測の分野における説明可能性モデルと説明可能性モデルの忠実性を通して、説明可能性を定義する。
本稿では,イベントログの仕様に基づいて適切なモデルを選択することのできる,X-MOPというガイドラインのセットを提案する。
論文 参考訳(メタデータ) (2022-03-30T05:59:50Z) - Robust and Stable Black Box Explanations [31.05743211871823]
ブラックボックスモデルの堅牢で安定した説明を生成するための新しいフレームワークを提案する。
我々はこのアルゴリズムを線形モデルと決定セットの形式で説明するためにインスタンス化する。
論文 参考訳(メタデータ) (2020-11-12T02:29:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。