論文の概要: Real-world-robustness of tree-based classifiers
- arxiv url: http://arxiv.org/abs/2208.10354v1
- Date: Mon, 22 Aug 2022 14:30:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-23 13:51:28.578773
- Title: Real-world-robustness of tree-based classifiers
- Title(参考訳): ツリーベース分類器の実世界ロバスト性
- Authors: Christoph Schweimer and Sebastian Scher
- Abstract要約: 入力データの自然発生歪みに対するロバストネスの指標として,最近導入された実世界のロバストネスの計算方法を示す。
実世界のロバスト性を計算する元の方法は、すべてのブラックボックス分類器で機能するが、近似に過ぎない。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The concept of trustworthy AI has gained widespread attention lately. One of
the aspects relevant to trustworthy AI is robustness of ML models. In this
study, we show how to compute the recently introduced measure of
real-world-robustness - a measure for robustness against naturally occurring
distortions of input data - for tree-based classifiers. The original method for
computing real-world-robustness works for all black box classifiers, but is
only an approximation. Here we show how real-world-robustness, under the
assumption that the natural distortions are given by multivariate normal
distributions, can be exactly computed for tree-based classifiers.
- Abstract(参考訳): 最近、信頼できるAIの概念が注目を集めている。
信頼できるAIに関連する側面の1つは、MLモデルの堅牢性である。
本研究では,最近導入された実世界ロバストネス尺度(自然発生する入力データの歪みに対するロバストネス尺度)を木に基づく分類器に対してどのように計算するかを示す。
実世界のロバスト性を計算する元の方法は、すべてのブラックボックス分類器で機能するが、近似に過ぎない。
ここでは,自然歪が多変量正規分布によって与えられるという仮定の下で,実世界ロバストネスが木に基づく分類器に対して正確に計算できることを示す。
関連論文リスト
- Efficient distributional regression trees learning algorithms for calibrated non-parametric probabilistic forecasts [0.0]
回帰の文脈では、条件平均を推定する代わりに、出力の予測間隔を生成することでこれを実現できる。
本稿では, WIS や CRPS の損失関数の確率回帰木を学習するための新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-02-07T18:39:35Z) - Intriguing Properties of Robust Classification [19.858602457988194]
非現実的な大量のデータでのみ、ロバストな一般化が可能であることを示す。
CIFAR-10のようなデータセット上で,ロバストな分類器がいかに一般化するかを考察する。
論文 参考訳(メタデータ) (2024-12-05T15:27:39Z) - Unmasking Trees for Tabular Data [0.0]
勾配型決定木を用いた表計算(および生成)の簡易な方法であるUnmaskingTreesを提案する。
条件生成サブプロブレムを解決するために,木分類器のバランス木に適合するBaltoBotを提案する。
従来の方法とは異なり、条件分布のパラメトリックな仮定は必要とせず、多重モーダル分布を持つ特徴を収容する。
我々はついに2つのアプローチをメタアルゴリズムとみなし、TabPFNを用いた文脈内学習に基づく生成モデリングを実証した。
論文 参考訳(メタデータ) (2024-07-08T04:15:43Z) - Interpretability at Scale: Identifying Causal Mechanisms in Alpaca [62.65877150123775]
本研究では、Boundless DASを用いて、命令に従う間、大規模言語モデルにおける解釈可能な因果構造を効率的に探索する。
私たちの発見は、成長し、最も広くデプロイされている言語モデルの内部構造を忠実に理解するための第一歩です。
論文 参考訳(メタデータ) (2023-05-15T17:15:40Z) - A Stable, Fast, and Fully Automatic Learning Algorithm for Predictive
Coding Networks [65.34977803841007]
予測符号化ネットワークは、ベイズ統計学と神経科学の両方にルーツを持つ神経科学にインスパイアされたモデルである。
シナプス重みに対する更新規則の時間的スケジュールを変更するだけで、元の規則よりもずっと効率的で安定したアルゴリズムが得られることを示す。
論文 参考訳(メタデータ) (2022-11-16T00:11:04Z) - Robustness of Machine Learning Models Beyond Adversarial Attacks [0.0]
本稿では,MLモデルのロバスト性を決定する上で,敵対的ロバスト性や近縁なメトリクスが必ずしも有効な指標ではないことを示す。
アプリケーション毎に個別に入力データの摂動をモデル化するフレキシブルなアプローチを提案する。
これは、現実の摂動が予測を変える可能性を計算する確率論的アプローチと組み合わせられる。
論文 参考訳(メタデータ) (2022-04-21T12:09:49Z) - A cautionary tale on fitting decision trees to data from additive
models: generalization lower bounds [9.546094657606178]
本研究では,異なる回帰モデルに対する決定木の一般化性能について検討する。
これにより、アルゴリズムが新しいデータに一般化するために(あるいは作らない)仮定する帰納的バイアスが引き起こされる。
スパース加法モデルに適合する大規模な決定木アルゴリズムに対して、シャープな2乗誤差一般化を低い境界で証明する。
論文 参考訳(メタデータ) (2021-10-18T21:22:40Z) - Evaluating State-of-the-Art Classification Models Against Bayes
Optimality [106.50867011164584]
正規化フローを用いて学習した生成モデルのベイズ誤差を正確に計算できることを示す。
われわれの手法を用いて、最先端の分類モデルについて徹底的な調査を行う。
論文 参考訳(メタデータ) (2021-06-07T06:21:20Z) - Continual Learning with Fully Probabilistic Models [70.3497683558609]
機械学習の完全確率的(または生成的)モデルに基づく継続的学習のアプローチを提案する。
生成器と分類器の両方に対してガウス混合モデル(GMM)インスタンスを用いた擬似リハーサル手法を提案する。
我々は,GMRが,クラス増分学習問題に対して,非常に競合的な時間とメモリの複雑さで,最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2021-04-19T12:26:26Z) - Solving Long-tailed Recognition with Deep Realistic Taxonomic Classifier [68.38233199030908]
ロングテール認識は、現実世界のシナリオにおける自然な非一様分散データに取り組む。
モダンは人口密度の高いクラスではうまく機能するが、そのパフォーマンスはテールクラスでは著しく低下する。
Deep-RTCは、リアリズムと階層的予測を組み合わせたロングテール問題の新しい解法として提案されている。
論文 参考訳(メタデータ) (2020-07-20T05:57:42Z) - Good Classifiers are Abundant in the Interpolating Regime [64.72044662855612]
補間分類器間のテストエラーの完全な分布を正確に計算する手法を開発した。
テストエラーは、最悪の補間モデルのテストエラーから大きく逸脱する、小さな典型的な$varepsilon*$に集中する傾向にある。
以上の結果から,統計的学習理論における通常の解析手法は,実際に観測された優れた一般化性能を捉えるのに十分な粒度にはならない可能性が示唆された。
論文 参考訳(メタデータ) (2020-06-22T21:12:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。