論文の概要: Efficient Explanations for Knowledge Compilation Languages
- arxiv url: http://arxiv.org/abs/2107.01654v2
- Date: Thu, 8 Jul 2021 09:58:58 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-09 12:03:42.853671
- Title: Efficient Explanations for Knowledge Compilation Languages
- Title(参考訳): 知識コンパイル言語のための効率的な説明
- Authors: Xuanxiang Huang and Yacine Izza and Alexey Ignatiev and Martin C.
Cooper and Nicholas Asher and Joao Marques-Silva
- Abstract要約: 本稿では、最もよく知られているKC言語の多くに対して、よく知られた説明のクラスを時間内に計算できることを示す。
また,説明文をd-DNNFよりも簡潔なKC言語に拡張できる条件についても検討した。
- 参考スコア(独自算出の注目度): 17.82645653054042
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Knowledge compilation (KC) languages find a growing number of practical uses,
including in Constraint Programming (CP) and in Machine Learning (ML). In most
applications, one natural question is how to explain the decisions made by
models represented by a KC language. This paper shows that for many of the best
known KC languages, well-known classes of explanations can be computed in
polynomial time. These classes include deterministic decomposable negation
normal form (d-DNNF), and so any KC language that is strictly less succinct
than d-DNNF. Furthermore, the paper also investigates the conditions under
which polynomial time computation of explanations can be extended to KC
languages more succinct than d-DNNF.
- Abstract(参考訳): 知識コンパイル(KC)言語は、制約プログラミング(CP)や機械学習(ML)など、実用的な用途が増えている。
ほとんどのアプリケーションにおいて、自然な疑問は、KC言語で表されるモデルによる決定をどのように説明するかである。
本稿では、最もよく知られたkc言語の多くにおいて、よく知られた説明クラスを多項式時間で計算できることを示す。
これらのクラスには、決定論的分解可能な否定正規形式(d-DNNF)が含まれ、したがって、d-DNNFよりも厳密に簡潔でない任意のKC言語が含まれる。
さらに,説明の多項式時間計算を,d-DNNFよりも簡潔なKC言語に拡張できる条件についても検討した。
関連論文リスト
- Training Neural Networks as Recognizers of Formal Languages [87.06906286950438]
形式言語理論は、特に認識者に関するものである。
代わりに、非公式な意味でのみ類似したプロキシタスクを使用するのが一般的である。
ニューラルネットワークを文字列のバイナリ分類器として直接訓練し評価することで、このミスマッチを補正する。
論文 参考訳(メタデータ) (2024-11-11T16:33:25Z) - Low-Resource Named Entity Recognition with Cross-Lingual, Character-Level Neural Conditional Random Fields [68.17213992395041]
低リソースのエンティティ認識は、まだNLPでは未解決の問題である。
そこで我々は,高リソース言語と低リソース言語の両方の名前付きエンティティを共同で予測するために,文字レベルのニューラルCRFを訓練する。
論文 参考訳(メタデータ) (2024-04-14T23:44:49Z) - Executing Natural Language-Described Algorithms with Large Language Models: An Investigation [48.461999568129166]
自然言語で概説したアルゴリズムを理解・実行するための,今日の大規模言語モデルの能力について検討する。
我々は、30個のアルゴリズムを選択し、300個のランダムサンプリングされたインスタンスを生成し、人気のあるLCMがこれらのアルゴリズムを理解し実行できるかを評価した。
この結果から,LLM,特にGPT-4は,重数値計算を伴わない限り,自然言語で記述されたプログラムを効果的に実行できることが判明した。
論文 参考訳(メタデータ) (2024-02-23T05:31:36Z) - How Proficient Are Large Language Models in Formal Languages? An In-Depth Insight for Knowledge Base Question Answering [52.86931192259096]
知識ベース質問回答(KBQA)は,知識ベースにおける事実に基づいた自然言語質問への回答を目的としている。
最近の研究は、論理形式生成のための大規模言語モデル(LLM)の機能を活用して性能を向上させる。
論文 参考訳(メタデータ) (2024-01-11T09:27:50Z) - Top-Down Knowledge Compilation for Counting Modulo Theories [11.086759883832505]
入力式が決定論的分解可能な否定正規形(d-DNNF)である場合、仮説モデルカウントは効率的に解ける。
トップダウン知識コンパイルは#SAT問題を解決する最先端技術である。
我々は,DPLL(T)探索の痕跡に基づくトップダウンコンパイラを提唱する。
論文 参考訳(メタデータ) (2023-06-07T15:46:28Z) - The Surprising Computational Power of Nondeterministic Stack RNNs [20.996069249108224]
従来のリカレントニューラルネットワーク(RNN)は、固定された有限個のメモリセルを持つ。
本稿では,非決定論とニューラルコントローラが相互作用して,より予期せぬ2つの能力を生み出すことを示す。
まず、非決定論的スタック RNN は CFL だけでなく、多くの非文脈自由言語を認識できる。
第二に、スタックアルファベットのサイズを考えると、予想されるよりもはるかに大きなアルファベットサイズを持つ言語を認識できる。
論文 参考訳(メタデータ) (2022-10-04T03:18:19Z) - Machine Reading, Fast and Slow: When Do Models "Understand" Language? [59.897515617661874]
本稿では,2つの言語スキル(コア参照の解決と比較)に関して,理解モデルを読み取る行動について検討する。
比較のため(コアではない)、より大きなエンコーダに基づくシステムは、より「正しい」情報に依存する傾向にあることがわかった。
論文 参考訳(メタデータ) (2022-09-15T16:25:44Z) - On Deciding Feature Membership in Explanations of SDD & Related
Classifiers [0.685316573653194]
この論文は、幅広い分類器のクラスに対してSigmaP$に対して、特徴メンバシップ問題(FMP)が難しいことを示している。
本稿では,SDD(Sentential Decision Diagrams)と他の命題言語に代表される分類器の命題符号化を提案する。
論文 参考訳(メタデータ) (2022-02-15T16:38:53Z) - On Efficiently Explaining Graph-Based Classifiers [16.199563506727316]
本稿では,決定木 (DT) が解釈可能であるだけでなく,DT の 1 つのPI-Explanation を計算するためのリアルタイムアルゴリズムを提案する。
さらに,1つの対照的な説明を計算するためのリアルタイムアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-02T17:55:41Z) - X-FACTR: Multilingual Factual Knowledge Retrieval from Pretrained
Language Models [103.75890012041366]
言語モデル(LM)は、事実の知識を捉えるのに驚くほど成功した。
しかし、LMの実際の表現能力の研究は、ほぼ間違いなく英語で行われている。
我々は23の語型的多様言語に対するクローゼスタイルプローブのベンチマークを作成する。
論文 参考訳(メタデータ) (2020-10-13T05:29:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。