論文の概要: Foundations of Symbolic Languages for Model Interpretability
- arxiv url: http://arxiv.org/abs/2110.02376v1
- Date: Tue, 5 Oct 2021 21:56:52 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-08 09:04:52.860882
- Title: Foundations of Symbolic Languages for Model Interpretability
- Title(参考訳): モデル解釈性のための記号言語の基礎
- Authors: Marcelo Arenas, Daniel Baez, Pablo Barcel\'o, Jorge P\'erez and
Bernardo Subercaseaux
- Abstract要約: 本稿では,2種類のMLモデル上でのFOILクエリの計算複雑性について検討する。
本稿では,高レベルの宣言型言語でラップされたFOILのプロトタイプ実装について述べる。
- 参考スコア(独自算出の注目度): 2.3361634876233817
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Several queries and scores have recently been proposed to explain individual
predictions over ML models. Given the need for flexible, reliable, and
easy-to-apply interpretability methods for ML models, we foresee the need for
developing declarative languages to naturally specify different explainability
queries. We do this in a principled way by rooting such a language in a logic,
called FOIL, that allows for expressing many simple but important
explainability queries, and might serve as a core for more expressive
interpretability languages. We study the computational complexity of FOIL
queries over two classes of ML models often deemed to be easily interpretable:
decision trees and OBDDs. Since the number of possible inputs for an ML model
is exponential in its dimension, the tractability of the FOIL evaluation
problem is delicate but can be achieved by either restricting the structure of
the models or the fragment of FOIL being evaluated. We also present a prototype
implementation of FOIL wrapped in a high-level declarative language and perform
experiments showing that such a language can be used in practice.
- Abstract(参考訳): MLモデルに対する個々の予測を説明するために、最近いくつかのクエリとスコアが提案されている。
mlモデルのフレキシブルで信頼性が高く、適用容易な解釈可能性メソッドの必要性から、異なる説明可能性クエリを自然に指定するための宣言型言語の開発の必要性を予見する。
このような言語を論理学でルート化するFOILは、単純だが重要な説明可能性クエリの多くを表現し、より表現力のある解釈可能性言語のコアとして機能する。
決定木とOBDDの2種類のMLモデルに対して,FOILクエリの計算複雑性について検討した。
mlモデルに対する可能な入力数はその次元において指数関数的であるため、フォイル評価問題の扱いやすさは繊細であるが、モデルの構造や評価対象のフォイルの断片を制限することで達成できる。
また,高レベル宣言型言語でラップされたfoilのプロトタイプ実装を行い,そのような言語を実際に使用できることを示す実験を行う。
関連論文リスト
- Understanding and Mitigating Language Confusion in LLMs [76.96033035093204]
我々は,既存の英語および多言語プロンプトを用いた15の型的多様言語の評価を行った。
Llama Instruct と Mistral のモデルでは,言語的混乱の度合いが高いことがわかった。
言語混乱は,数発のプロンプト,多言語SFT,選好調整によって部分的に緩和できることがわかった。
論文 参考訳(メタデータ) (2024-06-28T17:03:51Z) - Large Language Models are Interpretable Learners [53.56735770834617]
本稿では,Large Language Models(LLM)とシンボルプログラムの組み合わせによって,表現性と解釈可能性のギャップを埋めることができることを示す。
自然言語プロンプトを持つ事前訓練されたLLMは、生の入力を自然言語の概念に変換することができる解釈可能な膨大なモジュールセットを提供する。
LSPが学んだ知識は自然言語の記述と記号規則の組み合わせであり、人間(解釈可能)や他のLLMに容易に転送できる。
論文 参考訳(メタデータ) (2024-06-25T02:18:15Z) - How Proficient Are Large Language Models in Formal Languages? An In-Depth Insight for Knowledge Base Question Answering [52.86931192259096]
知識ベース質問回答(KBQA)は,知識ベースにおける事実に基づいた自然言語質問への回答を目的としている。
最近の研究は、論理形式生成のための大規模言語モデル(LLM)の機能を活用して性能を向上させる。
論文 参考訳(メタデータ) (2024-01-11T09:27:50Z) - Pyreal: A Framework for Interpretable ML Explanations [51.14710806705126]
Pyrealは、さまざまな解釈可能な機械学習説明を生成するシステムである。
Pyrealは、モデルによって期待される機能空間、関連する説明アルゴリズム、および人間のユーザ間でデータと説明を変換する。
我々の研究は、Pyrealが既存のシステムよりも有用な説明を生成することを示した。
論文 参考訳(メタデータ) (2023-12-20T15:04:52Z) - Evaluating Neural Language Models as Cognitive Models of Language
Acquisition [4.779196219827507]
我々は、ニューラルネットワークモデルの構文能力を評価するための最も顕著なベンチマークは、十分に厳密でないかもしれないと論じる。
小規模データモデリングによる子言語習得を訓練すると、LMは単純なベースラインモデルで容易にマッチングできる。
子どもの言語習得に関する実証的研究と、LMをよりよく結びつけるための提案をまとめて締めくくった。
論文 参考訳(メタデータ) (2023-10-31T00:16:17Z) - ThinkSum: Probabilistic reasoning over sets using large language models [18.123895485602244]
本稿では,2段階の確率的推論パラダイムであるThinkSumを提案する。
我々は,LLM評価タスクのBIGベンチスイートにおけるThinkSumの可能性とメリットを実証する。
論文 参考訳(メタデータ) (2022-10-04T00:34:01Z) - Interpreting Language Models with Contrastive Explanations [99.7035899290924]
言語モデルは、音声、数字、時制、意味論など、トークンを予測するための様々な特徴を考慮しなければならない。
既存の説明手法は、これらの特徴の証拠を1つの説明に分割するが、人間の理解には理解できない。
比較的な説明は、主要な文法現象の検証において、非対照的な説明よりも定量的に優れていることを示す。
論文 参考訳(メタデータ) (2022-02-21T18:32:24Z) - Flexible Operations for Natural Language Deduction [32.92866195461153]
ParaPatternは、人間の直接の監督なしに様々な自然言語入力の論理変換を生成するモデルを構築する方法である。
我々は、BARTベースのモデルを用いて、特定の論理演算を1つ以上の前提文に適用した結果を生成する。
対象とするコントラストセットと、qascデータセットからのドメイン外文合成を用いてモデルを評価する。
論文 参考訳(メタデータ) (2021-04-18T11:36:26Z) - Explicitly Modeling Syntax in Language Models with Incremental Parsing
and a Dynamic Oracle [88.65264818967489]
我々は新しい構文認識型言語モデル、Syntactic Ordered Memory (SOM)を提案する。
モデルは、構造をインクリメンタルにモデル化し、標準言語モデルの条件付き確率設定を維持する。
実験により、SOMは言語モデリング、インクリメンタル解析、構文一般化テストにおいて強力な結果が得られることが示された。
論文 参考訳(メタデータ) (2020-10-21T17:39:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。