論文の概要: Explaining Inference Queries with Bayesian Optimization
- arxiv url: http://arxiv.org/abs/2102.05308v1
- Date: Wed, 10 Feb 2021 08:08:32 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-11 14:26:20.511541
- Title: Explaining Inference Queries with Bayesian Optimization
- Title(参考訳): Bayesian Optimizationによる推論クエリの説明
- Authors: Brandon Lockhart, Jinglin Peng, Weiyuan Wu, Jiannan Wang, Eugene Wu
- Abstract要約: 推論クエリ説明は、予想外の集約クエリ結果を推論データで説明しようとする。
MLパイプラインのソース、トレーニング、推論データから説明を得る必要がある。
ベイズ最適化(BO)を用いた推論クエリ記述のための新しいフレームワークであるBOExplainを提案する。
- 参考スコア(独自算出の注目度): 16.448164301763168
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Obtaining an explanation for an SQL query result can enrich the analysis
experience, reveal data errors, and provide deeper insight into the data.
Inference query explanation seeks to explain unexpected aggregate query results
on inference data; such queries are challenging to explain because an
explanation may need to be derived from the source, training, or inference data
in an ML pipeline. In this paper, we model an objective function as a black-box
function and propose BOExplain, a novel framework for explaining inference
queries using Bayesian optimization (BO). An explanation is a predicate
defining the input tuples that should be removed so that the query result of
interest is significantly affected. BO - a technique for finding the global
optimum of a black-box function - is used to find the best predicate. We
develop two new techniques (individual contribution encoding and warm start) to
handle categorical variables. We perform experiments showing that the
predicates found by BOExplain have a higher degree of explanation compared to
those found by the state-of-the-art query explanation engines. We also show
that BOExplain is effective at deriving explanations for inference queries from
source and training data on three real-world datasets.
- Abstract(参考訳): sqlクエリ結果の説明を得ることで、分析エクスペリエンスの向上、データエラーの明確化、データに対する深い洞察が可能になる。
このようなクエリは、MLパイプラインのソース、トレーニング、または推論データから説明を得る必要があるため、説明が困難である。
本稿では,目的関数をブラックボックス関数としてモデル化し,ベイズ最適化(bo)を用いて推論クエリを説明する新しいフレームワークboexplainを提案する。
説明は入力タプルを定義する述語であり、興味のあるクエリ結果に大きく影響されるように削除されるべきである。
BO - ブラックボックス関数のグローバルな最適化を見つけるためのテクニックで、最良の述語を見つけるために使われる。
カテゴリ変数を扱うための2つの新しい手法(個別貢献エンコーディングとウォームスタート)を開発した。
BOExplainが発見した述語は、最先端の問合せ説明エンジンで見られるものよりも高い説明力を持つことを示す実験を行った。
また、BOExplainは、実世界の3つのデータセットのソースおよびトレーニングデータから推論クエリの説明を導き出すのにも有効であることを示す。
関連論文リスト
- CoTEVer: Chain of Thought Prompting Annotation Toolkit for Explanation
Verification [1.658938566492109]
CoT(Chain-of-Thought)プロンプトにより、最終予測の前に説明を生成することで、大規模言語モデル(LLM)が複雑な推論タスクを解くことができる。
有望な能力にもかかわらず、CoTの重要な欠点は、生成された説明の事実に大きく影響されていることである。
説明の正確性を改善するためには,説明データを用いた微調整言語モデルが必要である。
CoTEVerは、生成された説明の事実的正当性を注釈付けし、間違った説明の修正データを収集するためのツールキットである。
論文 参考訳(メタデータ) (2023-03-07T03:23:14Z) - Explanation Selection Using Unlabeled Data for Chain-of-Thought
Prompting [80.9896041501715]
非専門家によって書かれたオフ・ザ・シェルフの説明のように、タスクのために"チューニング"されていない説明は、中途半端なパフォーマンスをもたらす可能性がある。
本稿では,ブラックボックス方式で説明拡散プロンプトを最適化する方法の課題に対処する。
論文 参考訳(メタデータ) (2023-02-09T18:02:34Z) - ExaRanker: Explanation-Augmented Neural Ranker [67.4894325619275]
本研究は,ニューラルランサーが説明の恩恵を受けることを示す。
我々は、GPT-3.5のようなLCMを用いて、説明付き検索データセットを増強する。
ExaRankerと呼ばれる私たちのモデルは、数千の例で微調整され、合成説明は、説明なしで3倍の例で微調整されたモデルと同等に実行される。
論文 参考訳(メタデータ) (2023-01-25T11:03:04Z) - Complementary Explanations for Effective In-Context Learning [77.83124315634386]
大規模言語モデル (LLM) は、説明のインプロンプトから学習する際、顕著な能力を示した。
この研究は、文脈内学習に説明が使用されるメカニズムをよりよく理解することを目的としている。
論文 参考訳(メタデータ) (2022-11-25T04:40:47Z) - Interpretable by Design: Learning Predictors by Composing Interpretable
Queries [8.054701719767293]
機械学習アルゴリズムは設計によって解釈されるべきである。
正確な予測に必要なクエリの数を最小限に抑える。
視覚とNLPタスクの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2022-07-03T02:40:34Z) - Graph Enhanced BERT for Query Understanding [55.90334539898102]
クエリ理解は、ユーザの検索意図を探索し、ユーザが最も望まれる情報を発見できるようにする上で、重要な役割を果たす。
近年、プレトレーニング言語モデル (PLM) は様々な自然言語処理タスクを進歩させてきた。
本稿では,クエリコンテンツとクエリグラフの両方を活用可能な,グラフ強化事前学習フレームワークGE-BERTを提案する。
論文 参考訳(メタデータ) (2022-04-03T16:50:30Z) - Are Training Resources Insufficient? Predict First Then Explain! [54.184609286094044]
我々は、予測理論(PtE)アーキテクチャはモデリングの観点からより効率的なアプローチであると主張している。
PtE構造は説明データが欠如している場合に最もデータ効率のよい手法であることを示す。
論文 参考訳(メタデータ) (2021-08-29T07:04:50Z) - Search Methods for Sufficient, Socially-Aligned Feature Importance
Explanations with In-Distribution Counterfactuals [72.00815192668193]
特徴重要度(FI)推定は一般的な説明形式であり、テスト時に特定の入力特徴を除去することによって生じるモデル信頼度の変化を計算し、評価することが一般的である。
FIに基づく説明の未探索次元についていくつかの考察を行い、この説明形式に対する概念的および実証的な改善を提供する。
論文 参考訳(メタデータ) (2021-06-01T20:36:48Z) - ExplanationLP: Abductive Reasoning for Explainable Science Question
Answering [4.726777092009554]
本稿では,帰納的推論問題としての質問応答について考察する。
それぞれの選択に対して妥当な説明を構築し、最終回答として最適な説明で候補を選択する。
提案システムであるExplainationLPは,各候補の回答に対して,関連事実の重み付きグラフを構築して説明を行う。
論文 参考訳(メタデータ) (2020-10-25T14:49:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。