論文の概要: On the Learning with Augmented Class via Forests
- arxiv url: http://arxiv.org/abs/2505.09294v1
- Date: Wed, 14 May 2025 11:22:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-15 21:44:09.433102
- Title: On the Learning with Augmented Class via Forests
- Title(参考訳): 森林を通した増補授業による学習について
- Authors: Fan Xu, Wuyang Chen, Wei Gao,
- Abstract要約: 我々は、森林を経由した強化クラスによる学習に重点を置いており、そこでは、強化クラスがテストデータに現れるが、トレーニングデータには現れないかもしれない。
我々は、Giniの不純物強化に基づく浅い森林を構築するLACForest(Learning with Augmented Class via Forests)というアプローチを開発した。
また、強化されたジニ不純物に基づく新たな最適化目標を備えた深層神経林の開発も行っている。
- 参考スコア(独自算出の注目度): 17.606415934443554
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Decision trees and forests have achieved successes in various real applications, most working with all testing classes known in training data. In this work, we focus on learning with augmented class via forests, where an augmented class may appear in testing data yet not in training data. We incorporate information of augmented class into trees' splitting, i.e., a new splitting criterion, called augmented Gini impurity, is introduced to exploit some unlabeled data from testing distribution. We then develop the approach named Learning with Augmented Class via Forests (LACForest), which constructs shallow forests based on the augmented Gini impurity and then splits forests with pseudo-labeled augmented instances for better performance. We also develop deep neural forests with a novel optimization objective based on our augmented Gini impurity, so as to utilize the representation power of neural networks for forests. Theoretically, we present the convergence analysis for augmented Gini impurity, and finally conduct experiments to verify the effectiveness of our approaches. The code is available at https://github.com/nju-xuf/LACForest/.
- Abstract(参考訳): 決定木と森林は様々な実アプリケーションで成功し、ほとんどがトレーニングデータで知られているすべてのテストクラスで機能している。
本研究では,森林を経由した強化クラスによる学習に焦点をあてる。そこでは,訓練データにはないテストデータに拡張クラスが現れる可能性がある。
そこで我々は,木分割に拡張クラスの情報,すなわち,Gini不純物と呼ばれる新しい分割基準を導入して,テスト分布からラベルのないデータを活用する。
次に、強化されたジニ不純物に基づいて浅い森林を構築するLACForest(Learning with Augmented Class via Forests)というアプローチを開発し、擬似ラベル付き拡張インスタンスで森林を分割してパフォーマンスを向上させる。
また,森林に対するニューラルネットワークの表現力を活用するために,強化されたジニ不純物に基づく新たな最適化目標を備えた深層神経林の開発も行っている。
理論的には、強化されたジニ不純物に対する収束解析を行い、最終的に我々のアプローチの有効性を検証する実験を行う。
コードはhttps://github.com/nju-xuf/LACForest/で公開されている。
関連論文リスト
- Binary Classification: Is Boosting stronger than Bagging? [5.877778007271621]
本稿では,バニラ・ランダム・フォレストの拡張である拡張ランダム・フォレストを紹介し,付加機能と適応サンプルおよびモデル重み付けについて述べる。
トレーニングサンプルの重み付けを適応するための反復アルゴリズムを開発し、最も難しい例を選好し、新しいサンプルごとに個別の木の重み付け手法を見つけるためのアプローチを開発した。
本手法は15の異なる二分分類データセットにまたがる通常のランダムフォレストを著しく改善し,XGBoostを含む他の木法よりも優れていた。
論文 参考訳(メタデータ) (2024-10-24T23:22:33Z) - A Coefficient Makes SVRG Effective [51.36251650664215]
SVRG (Variance Reduced Gradient) は理論的に説得力のある最適化手法である。
本研究では,実世界のニューラルネットワークを最適化するSVRGの可能性を示す。
論文 参考訳(メタデータ) (2023-11-09T18:47:44Z) - ForensicsForest Family: A Series of Multi-scale Hierarchical Cascade Forests for Detecting GAN-generated Faces [53.739014757621376]
我々は,GAN生成顔を検出するために,EmforensicsForest Familyと呼ばれる簡易かつ効果的な森林法について述べる。
ForenscisForestは、新しく提案された多層階層のカスケード林である。
Hybrid ForensicsForestはCNNレイヤをモデルに統合する。
Divide-and-Conquer ForensicsForestは、トレーニングサンプリングの一部のみを使用して、森林モデルを構築することができる。
論文 参考訳(メタデータ) (2023-08-02T06:41:19Z) - Training Deep Learning Algorithms on Synthetic Forest Images for Tree
Detection [0.0]
そこで本研究では,43kのリアルな合成画像を画素レベルのアノテーションで自動生成するために,シミュレートされた森林環境を提案する。
また、実画像上で境界ボックス、セグメンテーションマスク、キーポイントを直接予測することにより、合成データセットで学習した特徴の有望な伝達学習能力を報告する。
論文 参考訳(メタデータ) (2022-10-08T20:49:40Z) - Q-learning with online random forests [0.913755431537592]
オンラインランダム・フォレストを$Q$関数近似器として提供し、学習が進むにつれてランダム・フォレストが成長する新しい手法を提案する。
本研究は, 森林の拡大が性能を向上させることを示し, 森林の拡大が, 強化学習環境を超えたオンラインランダム林の他の応用に有効であることを示唆している。
論文 参考訳(メタデータ) (2022-04-07T23:00:39Z) - Making CNNs Interpretable by Building Dynamic Sequential Decision
Forests with Top-down Hierarchy Learning [62.82046926149371]
本稿では,CNN(Convlutional Neural Networks)を解釈可能なモデル転送方式を提案する。
我々は、CNNの上に微分可能な意思決定林を構築することで、これを実現する。
DDSDF(Dep Dynamic Sequential Decision Forest)と命名する。
論文 参考訳(メタデータ) (2021-06-05T07:41:18Z) - Residual Likelihood Forests [19.97069303172077]
本稿では,Residual Likelihood Forests(RLF)と呼ばれる新たなアンサンブル学習手法を提案する。
我々の弱い学習者は、過去の学習者の文脈でグローバルな損失を用いて逐次最適化された条件付き確率を生成する。
Random Forests や Gradient Boosted Trees など,いくつかのアンサンブルアプローチと比較すると,RDF のパフォーマンスは大幅に向上している。
論文 参考訳(メタデータ) (2020-11-04T00:59:41Z) - Forest R-CNN: Large-Vocabulary Long-Tailed Object Detection and Instance
Segmentation [75.93960390191262]
我々は、オブジェクトカテゴリ間の関係に関する事前知識を利用して、きめ細かいクラスを粗い親クラスにクラスタリングする。
そこで本研究では,NMS再サンプリング法を提案する。
提案手法はフォレストR-CNNと呼ばれ,ほとんどのオブジェクト認識モデルに適用可能なプラグイン・アンド・プレイモジュールとして機能する。
論文 参考訳(メタデータ) (2020-08-13T03:52:37Z) - Neural Random Forest Imitation [24.02961053662835]
我々は、ランダムな森林からトレーニングデータを生成し、その振る舞いを模倣するニューラルネットワークを学習することで、模倣学習アプローチを導入する。
この暗黙的な変換は、ランダムな森林の決定境界を学習する非常に効率的なニューラルネットワークを生成する。
いくつかの実世界のベンチマークデータセットの実験は、優れたパフォーマンスを示している。
論文 参考訳(メタデータ) (2019-11-25T11:04:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。