論文の概要: Verifying Tree Ensembles by Reasoning about Potential Instances
- arxiv url: http://arxiv.org/abs/2001.11905v3
- Date: Tue, 18 May 2021 12:54:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-05 05:47:17.083739
- Title: Verifying Tree Ensembles by Reasoning about Potential Instances
- Title(参考訳): ポテンシャルインスタンスの推論によるツリーアンサンブルの検証
- Authors: Laurens Devos, Wannes Meert, Jesse Davis
- Abstract要約: 本稿では,問題の簡易化を問う質問に対して,入力空間の一部を具現化できる戦略を提案する。
次に、インクリメンタルで、常に答えを返すことのできる、分割と征服のアプローチに従います。
このアプローチの有用性は、さまざまなユースケースのセットで示されています。
- 参考スコア(独自算出の注目度): 25.204157642042627
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Imagine being able to ask questions to a black box model such as "Which
adversarial examples exist?", "Does a specific attribute have a
disproportionate effect on the model's prediction?" or "What kind of
predictions could possibly be made for a partially described example?" This
last question is particularly important if your partial description does not
correspond to any observed example in your data, as it provides insight into
how the model will extrapolate to unseen data. These capabilities would be
extremely helpful as they would allow a user to better understand the model's
behavior, particularly as it relates to issues such as robustness, fairness,
and bias. In this paper, we propose such an approach for an ensemble of trees.
Since, in general, this task is intractable we present a strategy that (1) can
prune part of the input space given the question asked to simplify the problem;
and (2) follows a divide and conquer approach that is incremental and can
always return some answers and indicates which parts of the input domains are
still uncertain. The usefulness of our approach is shown on a diverse set of
use cases.
- Abstract(参考訳): 特定の属性がモデルの予測に不釣り合いな影響を与えているか"、"部分的に説明された例に対して、どのような予測ができるのか"のようなブラックボックスモデルに質問することができると想像してください。
この最後の質問は、部分的な記述がデータ内の観察された例に対応していない場合、特に重要である。
これらの機能は、特に堅牢性、公平性、バイアスといった問題に関連して、ユーザがモデルの振る舞いをよりよく理解できるようにするため、非常に役に立ちます。
本稿では,木々のアンサンブルに対してこのようなアプローチを提案する。
この課題は一般に難易度が高いため,(1) 課題の簡略化を問う質問に対して入力空間の一部を抽出し,(2) 段階的かつ常に回答を返却し,入力領域のどの部分がまだ不確実かを示す分割・征服的アプローチに従うという戦略を提示する。
このアプローチの有用性は、さまざまなユースケースで示されています。
関連論文リスト
- What if you said that differently?: How Explanation Formats Affect Human Feedback Efficacy and User Perception [53.4840989321394]
我々は,QAモデルが生成した有理性の効果を分析し,その答えを支持する。
ユーザに対して,様々な形式で誤った回答とそれに対応する有理性を提示する。
このフィードバックの有効性を,文脈内学習を通じて評価する。
論文 参考訳(メタデータ) (2023-11-16T04:26:32Z) - Understanding Text Classification Data and Models Using Aggregated Input
Salience [2.105564340986074]
場合によっては、入力の最も重要な部分を強調する入力サリエンス法が問題となる可能性がある。
本稿では,これらの課題に対処し,単一例の理解からデータセットやモデル全体の理解へと進むことを目的とする。
この方法論を用いることで、複数の異なるが一般的なモデル開発者のニーズに対処し、問題のあるデータとモデルの振る舞いをいかに特定できるかを示す。
論文 参考訳(メタデータ) (2022-11-10T11:00:57Z) - NaturalAdversaries: Can Naturalistic Adversaries Be as Effective as
Artificial Adversaries? [61.58261351116679]
自然言語理解タスクのための2段階の逆例生成フレームワーク(NaturalAdversaries)を提案する。
モデルパラメータへのアクセスレベルに基づいて、ブラックボックスとホワイトボックスの双方に適応可能である。
以上の結果から,これらの対立はドメイン全体にわたって一般化され,ニューラルネットワーク分類モデルの堅牢性向上に向けた今後の研究への洞察が得られた。
論文 参考訳(メタデータ) (2022-11-08T16:37:34Z) - Can I see an Example? Active Learning the Long Tail of Attributes and
Relations [64.50739983632006]
視覚シーンの属性や関係を問う,新たな逐次能動学習フレームワークを提案する。
従来のアクティブな学習手法では、特定の例のラベルを求めるが、エージェントが特定のカテゴリからサンプルを求めることができるように、このフレーミングを反転させる。
このフレーミングを用いて、データ分布の尾からサンプルを求めるアクティブサンプリング手法を導入し、Visual Genomeの古典的アクティブラーニング手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-03-11T19:28:19Z) - Contrastive Explanations for Model Interpretability [77.92370750072831]
分類モデルの対照的説明を生成する手法を提案する。
本手法は潜在空間へのモデル表現の投影に基づいている。
本研究は,モデル決定のより正確できめ細かな解釈性を提供するためのラベルコントラスト的説明の能力に光を当てた。
論文 参考訳(メタデータ) (2021-03-02T00:36:45Z) - Counterfactual Explanations for Oblique Decision Trees: Exact, Efficient
Algorithms [0.0]
我々は、ソース入力インスタンスにおける特徴を最小に調整して、与えられた分類の下で対象クラスに分類する問題である、反事実的説明を考える。
これは、トレーニングされたモデルをクエリし、決定を覆す可能性のあるアクションを提案する手段として、最近の関心事となっている。
論文 参考訳(メタデータ) (2021-03-01T16:04:33Z) - Dependency Decomposition and a Reject Option for Explainable Models [4.94950858749529]
近年のディープラーニングモデルは様々な推論タスクにおいて非常によく機能する。
最近の進歩は特徴を視覚化し、入力の属性を記述する方法を提供します。
本稿では, 目的の画像分類出力に対する確率分布に関する依存性を初めて解析する。
論文 参考訳(メタデータ) (2020-12-11T17:39:33Z) - Towards Unifying Feature Attribution and Counterfactual Explanations:
Different Means to the Same End [17.226134854746267]
本稿では,一組の反実例から特徴帰属説明を生成する手法を提案する。
本報告では, 帰属に基づく説明の妥当性を, その必要性と充足性の観点から評価するために, 対実例をいかに活用するかを示す。
論文 参考訳(メタデータ) (2020-11-10T05:41:43Z) - Deducing neighborhoods of classes from a fitted model [68.8204255655161]
本稿では,新しいタイプの解釈可能な機械学習手法を提案する。
量子シフトを用いた分類モデルでは、特徴空間の予測クラスへの分割を理解するのに役立ちます。
基本的に、実際のデータポイント(または特定の関心点)を使用し、特定の特徴をわずかに引き上げたり減少させたりした後の予測の変化を観察する。
論文 参考訳(メタデータ) (2020-09-11T16:35:53Z) - Value-driven Hindsight Modelling [68.658900923595]
値推定は強化学習(RL)パラダイムの重要な構成要素である。
モデル学習は、観測系列に存在する豊富な遷移構造を利用することができるが、このアプローチは通常、報酬関数に敏感ではない。
この2つの極点の間に位置するRLにおける表現学習のアプローチを開発する。
これにより、タスクに直接関連し、値関数の学習を加速できる、抽出可能な予測ターゲットが提供される。
論文 参考訳(メタデータ) (2020-02-19T18:10:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。