論文の概要: An Information-Flow Perspective on Explainability Requirements: Specification and Verification
- arxiv url: http://arxiv.org/abs/2509.01479v1
- Date: Mon, 01 Sep 2025 13:50:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 15:17:03.724306
- Title: An Information-Flow Perspective on Explainability Requirements: Specification and Verification
- Title(参考訳): 説明可能性要件に関する情報の流れの視点:仕様と検証
- Authors: Bernd Finkbeiner, Hadar Frenkel, Julian Siber,
- Abstract要約: 説明可能なシステムは、それらと相互作用するエージェントに観察された影響が起こっている理由に関する情報を公開する。
これは、例えばプライバシー保証に違反する可能性のある負の情報フローに対して、特定、検証、バランスをとる必要がある情報の正のフローを構成する。
本稿では、この原理をシステムレベルの要件として説明可能性を指定するために利用し、そのような仕様に対して有限状態モデルをチェックするアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 5.849736173068869
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Explainable systems expose information about why certain observed effects are happening to the agents interacting with them. We argue that this constitutes a positive flow of information that needs to be specified, verified, and balanced against negative information flow that may, e.g., violate privacy guarantees. Since both explainability and privacy require reasoning about knowledge, we tackle these tasks with epistemic temporal logic extended with quantification over counterfactual causes. This allows us to specify that a multi-agent system exposes enough information such that agents acquire knowledge on why some effect occurred. We show how this principle can be used to specify explainability as a system-level requirement and provide an algorithm for checking finite-state models against such specifications. We present a prototype implementation of the algorithm and evaluate it on several benchmarks, illustrating how our approach distinguishes between explainable and unexplainable systems, and how it allows to pose additional privacy requirements.
- Abstract(参考訳): 説明可能なシステムは、それらと相互作用するエージェントに観察された影響が起こっている理由に関する情報を公開する。
これは、例えばプライバシー保証に違反している可能性のある負の情報フローに対して、特定、検証、バランスをとる必要がある情報の正のフローを構成する、と我々は主張する。
説明可能性とプライバシの両方が知識に関する推論を必要とするため、これらの課題を、反事実的原因に対する定量化によって拡張された疫学的時間論理を用いて解決する。
これにより、エージェントがなんらかの効果が生じたのかを知るのに十分な情報を公開するマルチエージェントシステムを特定することができる。
本稿では、この原理をシステムレベルの要件として説明可能性を指定するために利用し、そのような仕様に対して有限状態モデルをチェックするアルゴリズムを提案する。
本稿では,提案アルゴリズムのプロトタイプ実装といくつかのベンチマークによる評価を行い,提案手法が説明不能システムと説明不能システムとを区別し,さらに追加のプライバシ要件を実現する方法について述べる。
関連論文リスト
- Private Counterfactual Retrieval [34.11302393278422]
透明性と説明可能性は、ブラックボックス機械学習モデルを高精細なアプリケーションに採用する際に考慮すべき、極めて重要な2つの側面である。
反実的な説明を提供することは、この要件を満たす一つの方法である。
本稿では,個人情報検索(PIR)技術にインスパイアされた複数のスキームを提案する。
論文 参考訳(メタデータ) (2024-10-17T17:45:07Z) - New Rules for Causal Identification with Background Knowledge [59.733125324672656]
オープンな問題に対する新たな視点を提供するBKを導入するための2つの新しいルールを提案する。
これらのルールは、観測データによる因果効果のセットを決定するなど、典型的な因果関係のタスクに適用可能であることを示す。
論文 参考訳(メタデータ) (2024-07-21T20:21:21Z) - A Model-oriented Reasoning Framework for Privacy Analysis of Complex Systems [2.001711587270359]
本稿では,システムとその環境のプライバシ特性に関する推論フレームワークを提案する。
異なる論理レベルの知識リークをキャプチャして、質問に答えることができます。
論文 参考訳(メタデータ) (2024-05-14T06:52:56Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - How (Not) To Evaluate Explanation Quality [29.40729766120284]
タスクやドメインにまたがって適用される説明品質の望ましい特性を定式化する。
本稿では,今日の説明品質評価を制限する障害を克服するための実用的なガイドラインを提案する。
論文 参考訳(メタデータ) (2022-10-13T16:06:59Z) - Explainability in Process Outcome Prediction: Guidelines to Obtain
Interpretable and Faithful Models [77.34726150561087]
本稿では、プロセス結果予測の分野における説明可能性モデルと説明可能性モデルの忠実性を通して、説明可能性を定義する。
本稿では,イベントログの仕様に基づいて適切なモデルを選択することのできる,X-MOPというガイドラインのセットを提案する。
論文 参考訳(メタデータ) (2022-03-30T05:59:50Z) - Uncertainty Quantification of Surrogate Explanations: an Ordinal
Consensus Approach [1.3750624267664155]
我々は, 多様な自己記述型サロゲート説明器の集合間のコンセンサスを測定することによって, 与えられた説明の不確かさを推定する。
我々は、最先端の畳み込みニューラルネットワークアンサンブルの実験を通して、このアプローチの特性を実証的に説明する。
論文 参考訳(メタデータ) (2021-11-17T13:55:58Z) - Nested Counterfactual Identification from Arbitrary Surrogate
Experiments [95.48089725859298]
観測と実験の任意の組み合わせからネスト反事実の同定について検討した。
具体的には、任意のネストされた反事実を非ネストされたものへ写像できる反ファクト的非ネスト定理(英語版)(CUT)を証明する。
論文 参考訳(メタデータ) (2021-07-07T12:51:04Z) - Uncertainty as a Form of Transparency: Measuring, Communicating, and
Using Uncertainty [66.17147341354577]
我々は,モデル予測に関連する不確実性を推定し,伝達することにより,相補的な透明性の形式を考えることについて議論する。
モデルの不公平性を緩和し、意思決定を強化し、信頼できるシステムを構築するために不確実性がどのように使われるかを説明する。
この研究は、機械学習、可視化/HCI、デザイン、意思決定、公平性にまたがる文学から引き出された学際的レビューを構成する。
論文 参考訳(メタデータ) (2020-11-15T17:26:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。