論文の概要: Very fast, approximate counterfactual explanations for decision forests
- arxiv url: http://arxiv.org/abs/2303.02883v1
- Date: Mon, 6 Mar 2023 04:29:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-07 17:09:12.720213
- Title: Very fast, approximate counterfactual explanations for decision forests
- Title(参考訳): 決定林の極めて高速で近似的なカウンターファクト的説明
- Authors: Miguel \'A. Carreira-Perpi\~n\'an and Suryabhan Singh Hada
- Abstract要約: 我々は,無作為林などの分類林や回帰林について,非現実的な説明を見つけることを検討する。
正確な解を見つけるには、森の葉の数に指数関数的なコストがかかる。
我々は、森によって定義された入力空間領域のみに最適化を制約する、単純だが非常に効果的なアプローチを提案する。
- 参考スコア(独自算出の注目度): 3.42658286826597
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider finding a counterfactual explanation for a classification or
regression forest, such as a random forest. This requires solving an
optimization problem to find the closest input instance to a given instance for
which the forest outputs a desired value. Finding an exact solution has a cost
that is exponential on the number of leaves in the forest. We propose a simple
but very effective approach: we constrain the optimization to only those input
space regions defined by the forest that are populated by actual data points.
The problem reduces to a form of nearest-neighbor search using a certain
distance on a certain dataset. This has two advantages: first, the solution can
be found very quickly, scaling to large forests and high-dimensional data, and
enabling interactive use. Second, the solution found is more likely to be
realistic in that it is guided towards high-density areas of input space.
- Abstract(参考訳): 我々は,ランダム林などの分類や回帰林について,反事実的な説明を求める。
これは、森林が所望の値を出力する所定のインスタンスに最も近い入力インスタンスを見つけるために最適化問題を解く必要がある。
正確な解を見つけるには、森林の葉の数に指数関数的なコストがかかる。
我々は,実際のデータポイントに占めるフォレストによって定義された入力空間領域のみに最適化を限定する,単純かつ非常に効果的な手法を提案する。
この問題は、あるデータセット上のある距離を使って、近距離探索の形式に還元される。
まず、このソリューションは素早く見つけることができ、大きな森林や高次元のデータにスケールし、インタラクティブな利用を可能にします。
第二に、この解は入力空間の高密度領域に導かれるという点で現実的である可能性が高い。
関連論文リスト
- SLOPE: Search with Learned Optimal Pruning-based Expansion [2.0618817976970103]
SLOPE(Learned Optimal Pruning-based Expansion)を用いた探索手法を提案する。
ノードの距離を最適経路から学習し、その結果、オープンリストのサイズを小さくする。
これにより、探索は最適な経路に近い領域のみを探索し、メモリと計算コストを削減できる。
論文 参考訳(メタデータ) (2024-06-07T13:42:15Z) - Stratified Transformer for 3D Point Cloud Segmentation [89.9698499437732]
Stratified Transformerは、長距離コンテキストをキャプチャし、強力な一般化能力と高性能を示す。
不規則な点配置によって引き起こされる課題に対処するために,局所情報を集約する第1層点埋め込みを提案する。
S3DIS, ScanNetv2およびShapeNetPartデータセットにおける本手法の有効性と優位性を示す実験を行った。
論文 参考訳(メタデータ) (2022-03-28T05:35:16Z) - Approximate Nearest Neighbor Search under Neural Similarity Metric for
Large-Scale Recommendation [20.42993976179691]
本稿では,任意のマッチング関数にANN探索を拡張する新しい手法を提案する。
我々の主な考えは、すべての項目から構築された類似性グラフに一致する関数で、欲張りのウォークを実行することである。
提案手法は,Taobaoのディスプレイ広告プラットフォームに完全に展開されており,広告収入の大幅な増加をもたらす。
論文 参考訳(メタデータ) (2022-02-14T07:55:57Z) - Geometry- and Accuracy-Preserving Random Forest Proximities [3.265773263570237]
我々はランダムフォレスト-ジオメトリー(Random Forest-Geometry- and Accuracy-Preserving Proximities:RF-GAP)と呼ばれるランダムフォレスト確率の新しい定義を導入する。
RF-GAPは乱林予測と正確に一致していることが証明された。
この幾何表現の改善は、データ計算などのタスクにおいて従来のランダムな森の確率よりも優れており、学習したデータ幾何と整合した外れ値の検出と可視化結果を提供する。
論文 参考訳(メタデータ) (2022-01-29T23:13:53Z) - Cherry-Picking Gradients: Learning Low-Rank Embeddings of Visual Data
via Differentiable Cross-Approximation [53.95297550117153]
本稿では,大規模な視覚データテンソルの処理を行うエンドツーエンドのトレーニング可能なフレームワークを提案する。
提案手法は大規模多次元グリッドデータや,大規模受容領域上のコンテキストを必要とするタスクに特に有用である。
論文 参考訳(メタデータ) (2021-05-29T08:39:57Z) - Growing Deep Forests Efficiently with Soft Routing and Learned
Connectivity [79.83903179393164]
この論文は、いくつかの重要な側面で深い森林のアイデアをさらに拡張します。
我々は、ノードがハードバイナリ決定ではなく、確率的ルーティング決定、すなわちソフトルーティングを行う確率的ツリーを採用する。
MNISTデータセットの実験は、私たちの力のある深部森林が[1]、[3]よりも優れたまたは匹敵するパフォーマンスを達成できることを示しています。
論文 参考訳(メタデータ) (2020-12-29T18:05:05Z) - Random Planted Forest: a directly interpretable tree ensemble [0.0]
回帰設定における予測のための新しい解釈可能な木ベースアルゴリズムを提案する。
シミュレーション研究により,無作為植林手法の予測と可視化特性について検討した。
論文 参考訳(メタデータ) (2020-12-29T01:51:59Z) - Modeling Text with Decision Forests using Categorical-Set Splits [2.434796198711328]
軸方向決定林では、入力例をルートする「決定」は特徴空間の1次元における条件の評価の結果である。
分類的特徴に特有な条件を定義し,それを学習するためのアルゴリズムを提案する。
我々のアルゴリズムは訓練中は効率的であり、結果の条件はQuickScorer推論アルゴリズムの拡張により高速に評価できる。
論文 参考訳(メタデータ) (2020-09-21T16:16:35Z) - Stochastic Optimization Forests [60.523606291705214]
標準的なランダムな森林アルゴリズムのように予測精度を向上させるために分割するのではなく、分割を選択した木を栽培し、下流の意思決定品質を直接最適化することで、森林決定政策の訓練方法を示す。
概略分割基準は、各候補分割に対して正確に最適化された森林アルゴリズムに近い性能を保ちながら、100倍のランニング時間を短縮できることを示す。
論文 参考訳(メタデータ) (2020-08-17T16:56:06Z) - Aligning Partially Overlapping Point Sets: an Inner Approximation
Algorithm [80.15123031136564]
変換の値に関する事前情報がない点集合を整列するロバストな手法を提案する。
我々のアルゴリズムは変換の正規化を必要とせず、変換の値に関する事前情報がない状況に対処できる。
実験により,提案手法が最先端のアルゴリズムよりも高いロバスト性を示した。
論文 参考訳(メタデータ) (2020-07-05T15:23:33Z) - Model Inversion Networks for Model-Based Optimization [110.24531801773392]
スコアから入力への逆写像を学習するモデル反転ネットワーク(MIN)を提案する。
MINは高次元の入力空間にスケールでき、コンテキスト最適化と非コンテキスト最適化の両方にオフラインログデータを利用する。
我々は,ベイズ最適化の文献から,画像やタンパク質の設計に対する高次元モデルベース最適化問題,ログデータからのコンテキスト的帯域最適化といったタスクのMINを評価した。
論文 参考訳(メタデータ) (2019-12-31T18:06:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。