論文の概要: DBC-Forest: Deep forest with binning confidence screening
- arxiv url: http://arxiv.org/abs/2112.13182v1
- Date: Sat, 25 Dec 2021 04:46:34 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-28 16:29:24.209779
- Title: DBC-Forest: Deep forest with binning confidence screening
- Title(参考訳): DBC-Forest: 双発信頼性スクリーニングによる深い森
- Authors: Pengfei Ma, Youxi Wu, Yan Li, Lei Guo, Zhao Li
- Abstract要約: gcForestcs(英語版)は様々なアプリケーションで大きな成功を収めている。
本稿では、すべてのインスタンスをその信頼性に基づいてビンにまとめる、ディープ・ビンニング・信頼スクリーニング・フォレスト(DBC-Forest)モデルを提案する。
- 参考スコア(独自算出の注目度): 9.353465122597257
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As a deep learning model, deep confidence screening forest (gcForestcs) has
achieved great success in various applications. Compared with the traditional
deep forest approach, gcForestcs effectively reduces the high time cost by
passing some instances in the high-confidence region directly to the final
stage. However, there is a group of instances with low accuracy in the
high-confidence region, which are called mis-partitioned instances. To find
these mis-partitioned instances, this paper proposes a deep binning confidence
screening forest (DBC-Forest) model, which packs all instances into bins based
on their confidences. In this way, more accurate instances can be passed to the
final stage, and the performance is improved. Experimental results show that
DBC-Forest achieves highly accurate predictions for the same hyperparameters
and is faster than other similar models to achieve the same accuracy.
- Abstract(参考訳): 深層学習モデルとして、深い信頼度スクリーニング林(gcForestcs)は様々なアプリケーションで大きな成功を収めている。
従来のディープフォレストアプローチと比較して、gcforestcsは、高信頼領域のインスタンスを最終段階に直接渡すことで、高コストを効果的に削減する。
しかし,高信頼領域では,誤分割インスタンスと呼ばれる,精度の低いインスタンス群が存在する。
そこで本論文では,すべてのインスタンスを信頼度に基づいてビンにまとめる,DBC-Forest(Deep binning confidence screening forest)モデルを提案する。
このようにして、より正確なインスタンスを最終ステージに渡すことができ、パフォーマンスが向上する。
実験の結果,DBC-Forestは同一のハイパーパラメータの高精度な予測が可能であり,他の類似モデルよりも高速であることがわかった。
関連論文リスト
- Scalable Ensemble Diversification for OOD Generalization and Detection [68.8982448081223]
SEDは、ハエのハードトレーニングサンプルを特定し、アンサンブルメンバーにこれらについて意見の一致を奨励する。
モデル間でのペアの相違を解消する既存の方法において,コストのかかる計算を避ける方法を示す。
OODの一般化のために,出力空間(古典的)アンサンブルや重量空間アンサンブル(モデルスープ)など,複数の環境での多様化による大きなメリットを観察する。
論文 参考訳(メタデータ) (2024-09-25T10:30:24Z) - Credal Wrapper of Model Averaging for Uncertainty Estimation on Out-Of-Distribution Detection [5.19656787424626]
本稿では,ベイズニューラルネットワーク(BNN)と深層アンサンブルのモデル平均化のクレダルセット表現を定式化するための,クレダルラッパー(redal wrapper)と呼ばれる革新的なアプローチを提案する。
BNNや深層アンサンブルから導かれる単一分布の有限個の集合が与えられた場合、提案手法はクラスごとの上層と下層の確率境界を抽出する。
提案手法は,BNNおよび深層アンサンブルベースラインと比較して,不確実性推定において優れた性能を示す。
論文 参考訳(メタデータ) (2024-05-23T20:51:22Z) - CEEBERT: Cross-Domain Inference in Early Exit BERT [5.402030962296633]
CeeBERTは、中間層で観測されたドメイン固有の信頼度から最適な閾値を学習する。
CeeBERTは、BERT/ALBERTモデルを最小限の精度で、$2times$ -3.5times$でスピードアップすることができる。
論文 参考訳(メタデータ) (2024-05-23T20:36:10Z) - Revisiting Confidence Estimation: Towards Reliable Failure Prediction [53.79160907725975]
多くの信頼度推定法は誤分類誤りを検出するのに有害である。
本稿では, 最先端の故障予測性能を示す平坦な最小値を求めることにより, 信頼性ギャップを拡大することを提案する。
論文 参考訳(メタデータ) (2024-03-05T11:44:14Z) - gSASRec: Reducing Overconfidence in Sequential Recommendation Trained
with Negative Sampling [67.71952251641545]
負のサンプリングで訓練されたモデルは、正の相互作用の確率を過大評価する傾向がある。
本稿では, 一般化二項クロスエントロピー損失関数(gBCE)を提案する。
本稿では,gSASRecが過信問題を示さない3つのデータセットについて詳細な実験を行った。
論文 参考訳(メタデータ) (2023-08-14T14:56:40Z) - Window-Based Early-Exit Cascades for Uncertainty Estimation: When Deep
Ensembles are More Efficient than Single Models [5.0401589279256065]
アンサンブルは、アーキテクチャファミリ内の単一モデルをスケーリングするよりも、より計算的に(推論において)効率的であることを示す。
本研究では,不確実性推定に関連する課題に対して,これらの効率性の向上について検討する。
多数のネットワークアーキテクチャおよび不確実性タスクにわたるImageNetスケールデータの実験により、提案したウィンドウベースの早期実行アプローチは、より優れた不確実性計算トレードオフを実現することができることを示す。
論文 参考訳(メタデータ) (2023-03-14T15:57:54Z) - Fast post-process Bayesian inference with Variational Sparse Bayesian Quadrature [13.36200518068162]
本稿では,既存の目標密度評価から高速な後続近似を得る手段として,プロセス後ベイズ推定の枠組みを提案する。
この枠組みでは,ブラックボックスと潜在的ノイズの可能性のあるモデルに対して,プロセス後近似推定法である変分スパースベイズ近似(VSBQ)を導入する。
本手法は,計算神経科学による難解な合成シナリオと実世界の応用について検証する。
論文 参考訳(メタデータ) (2023-03-09T13:58:35Z) - Do Bayesian Variational Autoencoders Know What They Don't Know? [0.6091702876917279]
OoD(Out-of-Distribution)入力を検出する問題は、ディープニューラルネットワークにとって最重要課題である。
入力の密度を推定できる深部生成モデルでさえ、信頼できない可能性があることが以前に示されている。
本稿では,マルコフ連鎖モンテカルロ,バックプロパゲーションによるベイズ勾配,およびウェイト平均ガウスの3つの推論手法について検討する。
論文 参考訳(メタデータ) (2022-12-29T11:48:01Z) - Post-Processing Temporal Action Detection [134.26292288193298]
時間的行動検出(TAD)法は、通常、入力された可変長のビデオを固定長のスニペット表現シーケンスに変換する際に、前処理のステップを踏む。
この前処理ステップは、ビデオを時間的にダウンサンプリングし、推論の解像度を低減し、元の時間分解における検出性能を阻害する。
モデルの再設計や再学習を伴わない新しいモデル非依存のポストプロセッシング手法を提案する。
論文 参考訳(メタデータ) (2022-11-27T19:50:37Z) - Distributionally Robust Models with Parametric Likelihood Ratios [123.05074253513935]
3つの単純なアイデアにより、より広いパラメトリックな確率比のクラスを用いてDROでモデルを訓練することができる。
パラメトリック逆数を用いてトレーニングしたモデルは、他のDROアプローチと比較して、サブポピュレーションシフトに対して一貫して頑健であることがわかった。
論文 参考訳(メタデータ) (2022-04-13T12:43:12Z) - Better Fine-Tuning by Reducing Representational Collapse [77.44854918334232]
既存の訓練済み言語モデルに対するアプローチは不安定であることが示されている。
本稿では,従来使用されていた対数目的をパラメトリックノイズに置き換える信頼領域理論に根ざした手法を提案する。
事前学習されたモデルは、微調整されるたびにより一般化可能な表現を維持している。
論文 参考訳(メタデータ) (2020-08-06T02:13:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。