論文の概要: Interpretable by Design: Learning Predictors by Composing Interpretable
Queries
- arxiv url: http://arxiv.org/abs/2207.00938v1
- Date: Sun, 3 Jul 2022 02:40:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-07 07:51:26.485052
- Title: Interpretable by Design: Learning Predictors by Composing Interpretable
Queries
- Title(参考訳): 設計による解釈:解釈可能なクエリを構成することによって予測子を学ぶ
- Authors: Aditya Chattopadhyay, Stewart Slocum, Benjamin D. Haeffele, Rene Vidal
and Donald Geman
- Abstract要約: 機械学習アルゴリズムは設計によって解釈されるべきである。
正確な予測に必要なクエリの数を最小限に抑える。
視覚とNLPタスクの実験は、我々のアプローチの有効性を実証している。
- 参考スコア(独自算出の注目度): 8.054701719767293
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: There is a growing concern about typically opaque decision-making with
high-performance machine learning algorithms. Providing an explanation of the
reasoning process in domain-specific terms can be crucial for adoption in
risk-sensitive domains such as healthcare. We argue that machine learning
algorithms should be interpretable by design and that the language in which
these interpretations are expressed should be domain- and task-dependent.
Consequently, we base our model's prediction on a family of user-defined and
task-specific binary functions of the data, each having a clear interpretation
to the end-user. We then minimize the expected number of queries needed for
accurate prediction on any given input. As the solution is generally
intractable, following prior work, we choose the queries sequentially based on
information gain. However, in contrast to previous work, we need not assume the
queries are conditionally independent. Instead, we leverage a stochastic
generative model (VAE) and an MCMC algorithm (Unadjusted Langevin) to select
the most informative query about the input based on previous query-answers.
This enables the online determination of a query chain of whatever depth is
required to resolve prediction ambiguities. Finally, experiments on vision and
NLP tasks demonstrate the efficacy of our approach and its superiority over
post-hoc explanations.
- Abstract(参考訳): 高性能機械学習アルゴリズムによる不透明な意思決定には、懸念が高まっている。
ドメイン固有の用語で推論プロセスを説明することは、医療などのリスクに敏感なドメインの採用に不可欠である。
我々は、機械学習アルゴリズムは設計によって解釈されるべきであり、これらの解釈が表現される言語はドメインに依存し、タスクに依存しなければならないと論じる。
その結果、ユーザ定義およびタスク固有のバイナリ関数のファミリーに基づいて、モデルの予測を行い、それぞれがエンドユーザーに対して明確な解釈をすることができる。
次に、任意の入力に対する正確な予測に必要なクエリの期待数を最小化する。
ソリューションは一般的に難解であるため,先行作業の後に情報ゲインに基づいてクエリを順次選択する。
しかし、以前の作業とは対照的に、クエリが条件付き独立であると仮定する必要はありません。
その代わりに,確率的生成モデル (VAE) とMCMCアルゴリズム (Unadjusted Langevin) を用いて,入力に関する最も情報性の高いクエリを選択する。
これにより、予測曖昧さを解決するのに必要な深さのクエリチェーンのオンライン決定が可能になる。
最後に、視覚とNLPタスクの実験により、我々のアプローチの有効性と、ポストホックな説明よりも優れていることを示す。
関連論文リスト
- Likelihood as a Performance Gauge for Retrieval-Augmented Generation [78.28197013467157]
言語モデルの性能の効果的な指標としての可能性を示す。
提案手法は,より優れた性能をもたらすプロンプトの選択と構築のための尺度として,疑似可能性を利用する2つの手法を提案する。
論文 参考訳(メタデータ) (2024-11-12T13:14:09Z) - Generating Feasible and Plausible Counterfactual Explanations for Outcome Prediction of Business Processes [45.502284864662585]
データ駆動型アプローチであるREVISEDplusを導入し、妥当な対実的説明を生成する。
まず, プロセスデータの高密度領域内に存在する反ファクトデータを生成するために, 反ファクトアルゴリズムを限定する。
また、プロセスケースにおけるアクティビティ間のシーケンシャルなパターンを学習することで、妥当性を保証します。
論文 参考訳(メタデータ) (2024-03-14T09:56:35Z) - Learning-Augmented Algorithms with Explicit Predictors [67.02156211760415]
アルゴリズム設計の最近の進歩は、過去のデータと現在のデータから得られた機械学習モデルによる予測の活用方法を示している。
この文脈における以前の研究は、予測器が過去のデータに基づいて事前訓練され、ブラックボックスとして使用されるパラダイムに焦点を当てていた。
本研究では,予測器を解き,アルゴリズムの課題の中で生じる学習問題を統合する。
論文 参考訳(メタデータ) (2024-03-12T08:40:21Z) - Clarify When Necessary: Resolving Ambiguity Through Interaction with LMs [58.620269228776294]
そこで本稿では,ユーザに対して,あいまいさを解消するためのタスク非依存のフレームワークを提案する。
我々は3つのNLPアプリケーション(質問応答、機械翻訳、自然言語推論)にまたがるシステムを評価する。
インテントシムは堅牢であり、幅広いNLPタスクやLMの改善を実証している。
論文 参考訳(メタデータ) (2023-11-16T00:18:50Z) - Variational Information Pursuit for Interpretable Predictions [8.894670614193677]
変分情報探索 (V-IP) は, 生成モデル学習の必要性を回避したIPの変分特性である。
V-IPは、典型的にはシーケンシャル意思決定問題で使用される強化学習と比較して、クエリチェーンがはるかに短い。
本稿では,V-IPが生成モデルよりも優れた医療診断などの課題に対して有効であることを示す。
論文 参考訳(メタデータ) (2023-02-06T15:43:48Z) - Explainable Data-Driven Optimization: From Context to Decision and Back
Again [76.84947521482631]
データ駆動最適化では、コンテキスト情報と機械学習アルゴリズムを使用して、不確実なパラメータによる決定問題の解決策を見つける。
本稿では,データ駆動型問題に対する解法を説明するために,対実的説明手法を提案する。
在庫管理やルーティングといった運用管理における重要な問題を説明することで,我々のアプローチを実証する。
論文 参考訳(メタデータ) (2023-01-24T15:25:16Z) - What Should I Know? Using Meta-gradient Descent for Predictive Feature
Discovery in a Single Stream of Experience [63.75363908696257]
計算強化学習は、未来の感覚の予測を通じて、エージェントの世界の知覚を構築しようとする。
この一連の作業において、オープンな課題は、エージェントがどの予測が意思決定を最も支援できるかを、無限に多くの予測から決定することである。
本稿では,エージェントが何を予測するかを学習するメタ段階的な降下過程,(2)選択した予測の見積もり,3)将来の報酬を最大化するポリシーを生成する方法を紹介する。
論文 参考訳(メタデータ) (2022-06-13T21:31:06Z) - An Explainable Regression Framework for Predicting Remaining Useful Life
of Machines [6.374451442486538]
本稿では,機械の残留実用寿命(RUL)予測のための説明可能な回帰フレームワークを提案する。
また、古典的およびニューラルネットワーク(NN)に基づくタスクのためのソリューションを含む機械学習(ML)アルゴリズムを評価した。
論文 参考訳(メタデータ) (2022-04-28T15:44:12Z) - Non-Clairvoyant Scheduling with Predictions Revisited [77.86290991564829]
非論理的スケジューリングでは、優先度不明な処理条件でジョブをスケジューリングするためのオンライン戦略を見つけることが課題である。
我々はこのよく研究された問題を、アルゴリズム設計に(信頼できない)予測を統合する、最近人気の高い学習強化された設定で再検討する。
これらの予測には所望の特性があり, 高い性能保証を有するアルゴリズムと同様に, 自然な誤差測定が可能であることを示す。
論文 参考訳(メタデータ) (2022-02-21T13:18:11Z) - Learning Optimal Representations with the Decodable Information
Bottleneck [43.30367159353152]
機械学習では、我々のゴールは圧縮ではなく、むしろ一般化であり、予測ファミリや関心のデコーダと密接に関連している。
本稿では,情報保持と圧縮を所望の予測族の観点から考慮した,情報保持可能な情報ボトルネック(DIB)を提案する。
結果として、DIBは期待されるテスト性能の観点で最適であり、保証とともに推定できる表現を生み出します。
論文 参考訳(メタデータ) (2020-09-27T08:33:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。