論文の概要: A Formal Framework for the Explanation of Finite Automata Decisions
- arxiv url: http://arxiv.org/abs/2602.13351v2
- Date: Tue, 17 Feb 2026 03:19:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-18 13:57:33.618052
- Title: A Formal Framework for the Explanation of Finite Automata Decisions
- Title(参考訳): 有限オートマタ決定のための形式的枠組み
- Authors: Jaime Cuartas Granada, Alexey Ignatiev, Peter J. Stuckey,
- Abstract要約: 単語の文字を用いて入力語にFAの振る舞いを説明する方法について検討する。
そこで本研究では,FAの振る舞いに関する最小限の説明を,ある単語に対して効率的に決定する手法を提案する。
- 参考スコア(独自算出の注目度): 19.951843413996695
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Finite automata (FA) are a fundamental computational abstraction that is widely used in practice for various tasks in computer science, linguistics, biology, electrical engineering, and artificial intelligence. Given an input word, an FA maps the word to a result, in the simple case "accept" or "reject", but in general to one of a finite set of results. A question that then arises is: why? Another question is: how can we modify the input word so that it is no longer accepted? One may think that the automaton itself is an adequate explanation of its behaviour, but automata can be very complex and difficult to make sense of directly. In this work, we investigate how to explain the behaviour of an FA on an input word in terms of the word's characters. In particular, we are interested in minimal explanations: what is the minimal set of input characters that explains the result, and what are the minimal changes needed to alter the result? In this paper, we propose an efficient method to determine all minimal explanations for the behaviour of an FA on a particular word. This allows us to give unbiased explanations about which input features are responsible for the result. Experiments show that our approach scales well, even when the underlying problem is challenging.
- Abstract(参考訳): 有限オートマトン (FA) は、計算機科学、言語学、生物学、電気工学、人工知能の様々なタスクに広く使われている基本的な計算抽象化である。
入力語が与えられた場合、FAはその単語を単純な場合、"accept" または "reject" として結果にマッピングするが、一般には有限個の結果の1つにマップする。
なぜかという疑問が浮かび上がってくる。
もう1つの疑問は、どうやって入力語をもはや受け入れられないよう変更できるのか、ということです。
オートマトン自体がその振る舞いの十分な説明であると考える人もいるが、オートマトンは非常に複雑で、直接的に理解することは困難である。
本研究では,単語の文字から入力語に対するFAの振る舞いを説明する方法について検討する。
結果を説明する最小限の入力文字セットと、結果を変更するのに必要な最小限の変更とは何ですか?
本稿では,特定の単語に対するFAの振る舞いについて,最小限の説明を全て決定する効率的な手法を提案する。
これにより、どの入力機能で結果に責任があるのか、曖昧な説明ができます。
実験の結果、根底にある問題に挑戦しても、我々のアプローチはうまくスケールしていることがわかった。
関連論文リスト
- Why this and not that? A Logic-based Framework for Contrastive Explanations [4.3871352596331255]
対照的な説明に関連するいくつかの標準的な問題を定義し、それぞれが'なぜPはQではない'という形式の疑問に答える。
P と Q の両方の問題を計算し、その差を明示的に比較する。
我々の枠組みは、文献における既存の対照的な説明の基数-最小バージョンを捉えていることを示す。
論文 参考訳(メタデータ) (2025-07-11T09:55:04Z) - Most General Explanations of Tree Ensembles (Extended Version) [39.367378161774596]
「AIシステムの主な疑問は、なぜこの決定がこのようにされたのかである。」
私たちは、AI決定に対して最も一般的な帰納的説明を見つける方法を示します。
論文 参考訳(メタデータ) (2025-05-16T08:42:01Z) - Critical Thinking: Which Kinds of Complexity Govern Optimal Reasoning Length? [72.70486097967124]
決定論的有限オートマトン(DFAs)を用いたフレームワークの定式化
正しい解を生成する確率が最大になるような推論トークンが最適に存在することを示す。
新たな問題に対する推論トークンの最適個数を予測し、最適でない回答をフィルタリングすることで、一貫した精度の向上が得られる。
論文 参考訳(メタデータ) (2025-04-02T17:45:58Z) - Interpretability at Scale: Identifying Causal Mechanisms in Alpaca [62.65877150123775]
本研究では、Boundless DASを用いて、命令に従う間、大規模言語モデルにおける解釈可能な因果構造を効率的に探索する。
私たちの発見は、成長し、最も広くデプロイされている言語モデルの内部構造を忠実に理解するための第一歩です。
論文 参考訳(メタデータ) (2023-05-15T17:15:40Z) - Explainability via Short Formulas: the Case of Propositional Logic with
Implementation [2.583686260808494]
非常に一般的な設定で、説明可能性に関する多くの関連する定義を与える。
我々の関心は、入力モデルにおける入力公式の真理値を説明することを目的とした、いわゆる特殊説明問題である。
論文 参考訳(メタデータ) (2022-09-03T11:47:25Z) - A Paradigm Change for Formal Syntax: Computational Algorithms in the
Grammar of English [0.0]
私たちは、プログラム言語を、プロセスベースの英語構文のモデルにします。
機能語と内容語の組み合わせをモデリングのトピックとして選んだ。
モデルの適合性は、アルゴリズムに不可欠な3つの機能特性を導出し、英語文法におけるそれらの存在を確認することによって検証された。
論文 参考訳(メタデータ) (2022-05-24T07:28:47Z) - Human Interpretation of Saliency-based Explanation Over Text [65.29015910991261]
テキストデータ上でのサリエンシに基づく説明について検討する。
人はしばしば説明を誤って解釈する。
本稿では,過度知覚と過小認識のモデル推定に基づいて,サリエンシを調整する手法を提案する。
論文 参考訳(メタデータ) (2022-01-27T15:20:32Z) - Search Methods for Sufficient, Socially-Aligned Feature Importance
Explanations with In-Distribution Counterfactuals [72.00815192668193]
特徴重要度(FI)推定は一般的な説明形式であり、テスト時に特定の入力特徴を除去することによって生じるモデル信頼度の変化を計算し、評価することが一般的である。
FIに基づく説明の未探索次元についていくつかの考察を行い、この説明形式に対する概念的および実証的な改善を提供する。
論文 参考訳(メタデータ) (2021-06-01T20:36:48Z) - Provable Limitations of Acquiring Meaning from Ungrounded Form: What
will Future Language Models Understand? [87.20342701232869]
未知のシステムが意味を習得する能力について検討する。
アサーションによってシステムが等価性のような意味関係を保存する表現をエミュレートできるかどうか検討する。
言語内のすべての表現が参照的に透明であれば,アサーションによってセマンティックエミュレーションが可能になる。
しかし、言語が変数バインディングのような非透過的なパターンを使用する場合、エミュレーションは計算不能な問題になる可能性がある。
論文 参考訳(メタデータ) (2021-04-22T01:00:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。