論文の概要: DBC-Forest: Deep forest with binning confidence screening
- arxiv url: http://arxiv.org/abs/2112.13182v1
- Date: Sat, 25 Dec 2021 04:46:34 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-28 16:29:24.209779
- Title: DBC-Forest: Deep forest with binning confidence screening
- Title(参考訳): DBC-Forest: 双発信頼性スクリーニングによる深い森
- Authors: Pengfei Ma, Youxi Wu, Yan Li, Lei Guo, Zhao Li
- Abstract要約: gcForestcs(英語版)は様々なアプリケーションで大きな成功を収めている。
本稿では、すべてのインスタンスをその信頼性に基づいてビンにまとめる、ディープ・ビンニング・信頼スクリーニング・フォレスト(DBC-Forest)モデルを提案する。
- 参考スコア(独自算出の注目度): 9.353465122597257
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As a deep learning model, deep confidence screening forest (gcForestcs) has
achieved great success in various applications. Compared with the traditional
deep forest approach, gcForestcs effectively reduces the high time cost by
passing some instances in the high-confidence region directly to the final
stage. However, there is a group of instances with low accuracy in the
high-confidence region, which are called mis-partitioned instances. To find
these mis-partitioned instances, this paper proposes a deep binning confidence
screening forest (DBC-Forest) model, which packs all instances into bins based
on their confidences. In this way, more accurate instances can be passed to the
final stage, and the performance is improved. Experimental results show that
DBC-Forest achieves highly accurate predictions for the same hyperparameters
and is faster than other similar models to achieve the same accuracy.
- Abstract(参考訳): 深層学習モデルとして、深い信頼度スクリーニング林(gcForestcs)は様々なアプリケーションで大きな成功を収めている。
従来のディープフォレストアプローチと比較して、gcforestcsは、高信頼領域のインスタンスを最終段階に直接渡すことで、高コストを効果的に削減する。
しかし,高信頼領域では,誤分割インスタンスと呼ばれる,精度の低いインスタンス群が存在する。
そこで本論文では,すべてのインスタンスを信頼度に基づいてビンにまとめる,DBC-Forest(Deep binning confidence screening forest)モデルを提案する。
このようにして、より正確なインスタンスを最終ステージに渡すことができ、パフォーマンスが向上する。
実験の結果,DBC-Forestは同一のハイパーパラメータの高精度な予測が可能であり,他の類似モデルよりも高速であることがわかった。
関連論文リスト
- Revisiting Confidence Estimation: Towards Reliable Failure Prediction [53.79160907725975]
多くの信頼度推定法は誤分類誤りを検出するのに有害である。
本稿では, 最先端の故障予測性能を示す平坦な最小値を求めることにより, 信頼性ギャップを拡大することを提案する。
論文 参考訳(メタデータ) (2024-03-05T11:44:14Z) - gSASRec: Reducing Overconfidence in Sequential Recommendation Trained
with Negative Sampling [67.71952251641545]
負のサンプリングで訓練されたモデルは、正の相互作用の確率を過大評価する傾向がある。
本稿では, 一般化二項クロスエントロピー損失関数(gBCE)を提案する。
本稿では,gSASRecが過信問題を示さない3つのデータセットについて詳細な実験を行った。
論文 参考訳(メタデータ) (2023-08-14T14:56:40Z) - Window-Based Early-Exit Cascades for Uncertainty Estimation: When Deep
Ensembles are More Efficient than Single Models [5.0401589279256065]
アンサンブルは、アーキテクチャファミリ内の単一モデルをスケーリングするよりも、より計算的に(推論において)効率的であることを示す。
本研究では,不確実性推定に関連する課題に対して,これらの効率性の向上について検討する。
多数のネットワークアーキテクチャおよび不確実性タスクにわたるImageNetスケールデータの実験により、提案したウィンドウベースの早期実行アプローチは、より優れた不確実性計算トレードオフを実現することができることを示す。
論文 参考訳(メタデータ) (2023-03-14T15:57:54Z) - Making Substitute Models More Bayesian Can Enhance Transferability of
Adversarial Examples [89.85593878754571]
ディープニューラルネットワークにおける敵の例の転送可能性は多くのブラックボックス攻撃の欠如である。
我々は、望ましい転送可能性を達成するためにベイズモデルを攻撃することを提唱する。
我々の手法は近年の最先端を大きなマージンで上回る。
論文 参考訳(メタデータ) (2023-02-10T07:08:13Z) - Do Bayesian Variational Autoencoders Know What They Don't Know? [0.6091702876917279]
OoD(Out-of-Distribution)入力を検出する問題は、ディープニューラルネットワークにとって最重要課題である。
入力の密度を推定できる深部生成モデルでさえ、信頼できない可能性があることが以前に示されている。
本稿では,マルコフ連鎖モンテカルロ,バックプロパゲーションによるベイズ勾配,およびウェイト平均ガウスの3つの推論手法について検討する。
論文 参考訳(メタデータ) (2022-12-29T11:48:01Z) - Post-Processing Temporal Action Detection [134.26292288193298]
時間的行動検出(TAD)法は、通常、入力された可変長のビデオを固定長のスニペット表現シーケンスに変換する際に、前処理のステップを踏む。
この前処理ステップは、ビデオを時間的にダウンサンプリングし、推論の解像度を低減し、元の時間分解における検出性能を阻害する。
モデルの再設計や再学習を伴わない新しいモデル非依存のポストプロセッシング手法を提案する。
論文 参考訳(メタデータ) (2022-11-27T19:50:37Z) - Distributionally Robust Models with Parametric Likelihood Ratios [123.05074253513935]
3つの単純なアイデアにより、より広いパラメトリックな確率比のクラスを用いてDROでモデルを訓練することができる。
パラメトリック逆数を用いてトレーニングしたモデルは、他のDROアプローチと比較して、サブポピュレーションシフトに対して一貫して頑健であることがわかった。
論文 参考訳(メタデータ) (2022-04-13T12:43:12Z) - Bayesian Optimization Meets Laplace Approximation for Robotic
Introspection [41.117361086267806]
本稿では,Deep Neural Networks(DNN)をよりイントロスペクティブにするために,スケーラブルなLaplace Approximation (LA)技術を導入する。
特に,本論文では,真の重み付け後部を過小評価する傾向を緩和する新しいベイズ最適化(BO)アルゴリズムを提案する。
提案するフレームワークは,大規模データセットやアーキテクチャにまで拡張可能であることを示す。
論文 参考訳(メタデータ) (2020-10-30T09:28:10Z) - Better Fine-Tuning by Reducing Representational Collapse [77.44854918334232]
既存の訓練済み言語モデルに対するアプローチは不安定であることが示されている。
本稿では,従来使用されていた対数目的をパラメトリックノイズに置き換える信頼領域理論に根ざした手法を提案する。
事前学習されたモデルは、微調整されるたびにより一般化可能な表現を維持している。
論文 参考訳(メタデータ) (2020-08-06T02:13:16Z) - Towards Robust Classification with Deep Generative Forests [13.096855747795303]
決定木とランダムフォレストは最も広く使われている機械学習モデルの一つである。
主に識別モデルであるため、予測の不確実性を操作するための原則的な方法が欠けている。
我々はジェネレーティブフォレスト(GeF)を利用してランダムフォレストを特徴空間上の全関節分布を表す生成モデルに拡張する。
論文 参考訳(メタデータ) (2020-07-11T08:57:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。