論文の概要: Enhance and Reuse: A Dual-Mechanism Approach to Boost Deep Forest for Label Distribution Learning
- arxiv url: http://arxiv.org/abs/2602.06353v1
- Date: Fri, 06 Feb 2026 03:30:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-09 22:18:26.21594
- Title: Enhance and Reuse: A Dual-Mechanism Approach to Boost Deep Forest for Label Distribution Learning
- Title(参考訳): エンハンス・アンド・リユース-ディープフォレスト向上のためのデュアル・メカリズムアプローチ
- Authors: Jia-Le Xu, Shen-Huan Lyu, Yu-Nian Wang, Ning Chen, Zhihao Qu, Bin Tang, Baoliu Ye,
- Abstract要約: ラベル分布学習では,各サンプルとラベル間の相関関係の程度を学習者が予測する必要がある。
Deep Forest (DF) は木のアンサンブルに基づくディープラーニングフレームワークであり、トレーニングフェーズはバックプロパゲーションに依存しない。
ERDF (Enhanced and Reused Feature Deep Forest) という手法を提案する。
- 参考スコア(独自算出の注目度): 20.315448331938757
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Label distribution learning (LDL) requires the learner to predict the degree of correlation between each sample and each label. To achieve this, a crucial task during learning is to leverage the correlation among labels. Deep Forest (DF) is a deep learning framework based on tree ensembles, whose training phase does not rely on backpropagation. DF performs in-model feature transform using the prediction of each layer and achieves competitive performance on many tasks. However, its exploration in the field of LDL is still in its infancy. The few existing methods that apply DF to the field of LDL do not have effective ways to utilize the correlation among labels. Therefore, we propose a method named Enhanced and Reused Feature Deep Forest (ERDF). It mainly contains two mechanisms: feature enhancement exploiting label correlation and measure-aware feature reuse. The first one is to utilize the correlation among labels to enhance the original features, enabling the samples to acquire more comprehensive information for the task of LDL. The second one performs a reuse operation on the features of samples that perform worse than the previous layer on the validation set, in order to ensure the stability of the training process. This kind of Enhance-Reuse pattern not only enables samples to enrich their features but also validates the effectiveness of their new features and conducts a reuse process to prevent the noise from spreading further. Experiments show that our method outperforms other comparison algorithms on six evaluation metrics.
- Abstract(参考訳): ラベル分布学習(LDL)では,各サンプルとラベル間の相関関係の程度を学習者が予測する必要がある。
これを達成するために、学習中の重要な課題はラベル間の相関を活用することである。
Deep Forest(DF)は、学習フェーズがバックプロパゲーションに依存しない、木のアンサンブルに基づくディープラーニングフレームワークである。
DFは各層の予測を用いてモデル内特徴変換を行い、多くのタスクにおいて競合性能を達成する。
しかし、LDLの分野での探査はまだ初期段階にある。
DF を LDL の分野に適用する数少ない手法は,ラベル間の相関を効果的に活用する方法を持っていない。
そこで本研究では,ERDF (Enhanced and Reused Feature Deep Forest) という手法を提案する。
主に、ラベル相関を利用した機能強化と、計測・認識機能再利用の2つのメカニズムを含んでいる。
1つ目は、ラベル間の相関を利用して元の特徴を高めることで、サンプルがLCLのタスクに対してより包括的な情報を取得することを可能にすることである。
第2の方法は、トレーニングプロセスの安定性を確保するため、検証セットの前の層よりも悪いサンプルの特徴に対する再利用操作を行う。
この種のエンハンス・リユース・パターンは、サンプルがその特徴を豊かにするだけでなく、新しい特徴の有効性を検証し、ノイズがさらに広がるのを防ぐために再利用プロセスを実行する。
実験の結果,提案手法は6つの評価指標において,他の比較アルゴリズムよりも優れていることがわかった。
関連論文リスト
- Co-training for Low Resource Scientific Natural Language Inference [65.37685198688538]
遠隔教師付きラベルに分類器のトレーニング力学に基づいて重みを割り当てる新しいコトレーニング手法を提案する。
予測された信頼度に対する任意のしきい値に基づいてサンプルをフィルタリングするのではなく、重要重みを割り当てることにより、自動ラベル付きデータの使用を最大化する。
提案手法は、遠隔監視ベースラインに対するマクロF1の1.5%の改善と、他の強力なSSLベースラインよりも大幅に改善されている。
論文 参考訳(メタデータ) (2024-06-20T18:35:47Z) - Rethinking Classifier Re-Training in Long-Tailed Recognition: A Simple
Logits Retargeting Approach [102.0769560460338]
我々は,クラスごとのサンプル数に関する事前知識を必要とせず,シンプルなロジットアプローチ(LORT)を開発した。
提案手法は,CIFAR100-LT, ImageNet-LT, iNaturalist 2018など,様々な不均衡データセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2024-03-01T03:27:08Z) - MyriadAL: Active Few Shot Learning for Histopathology [10.652626309100889]
我々は、Myriad Active Learning (MAL)という、アクティブな数個のショットラーニングフレームワークを導入する。
MALには、コントラスト学習エンコーダ、擬似ラベル生成、ループ内の新しいクエリサンプル選択が含まれている。
2つの公的な病理組織学データセットの実験により、MALは以前の研究に比べてテスト精度、マクロF1スコア、ラベル効率が優れていることが示された。
論文 参考訳(メタデータ) (2023-10-24T20:08:15Z) - Towards Harnessing Feature Embedding for Robust Learning with Noisy
Labels [44.133307197696446]
ディープニューラルネットワーク(DNN)の記憶効果は,近年のラベルノイズ学習法において重要な役割を担っている。
ラベルノイズを用いたディープラーニングのための新しい特徴埋め込み方式, LabEl Noise Dilution (LEND) を提案する。
論文 参考訳(メタデータ) (2022-06-27T02:45:09Z) - L2B: Learning to Bootstrap Robust Models for Combating Label Noise [52.02335367411447]
本稿では,Learning to Bootstrap (L2B) という,シンプルで効果的な手法を提案する。
モデルは、誤った擬似ラベルの影響を受けずに、自身の予測を使ってブートストラップを行うことができる。
これは、実際の観測されたラベルと生成されたラベル間の重みを動的に調整し、メタラーニングを通じて異なるサンプル間の重みを動的に調整することで実現される。
論文 参考訳(メタデータ) (2022-02-09T05:57:08Z) - A Lagrangian Duality Approach to Active Learning [119.36233726867992]
トレーニングデータのサブセットのみをラベル付けするバッチアクティブな学習問題を考察する。
制約付き最適化を用いて学習問題を定式化し、各制約はラベル付きサンプルにモデルの性能を拘束する。
数値実験により,提案手法は最先端の能動学習法と同等かそれ以上に機能することを示した。
論文 参考訳(メタデータ) (2022-02-08T19:18:49Z) - Gradient Imitation Reinforcement Learning for Low Resource Relation
Extraction [52.63803634033647]
低リソース関係抽出(LRE)は,人間のアノテーションが不足している場合に,ラベル付きコーパスから関係事実を抽出することを目的としている。
我々は、擬似ラベルデータにラベル付きデータへの勾配降下方向を模倣するように促すグラディエント・イミテーション強化学習法を開発した。
また,低リソース関係抽出における2つの主要なシナリオを扱うGradLREというフレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-14T03:51:15Z) - SLADE: A Self-Training Framework For Distance Metric Learning [75.54078592084217]
我々は、追加のラベルのないデータを活用することで、検索性能を向上させるための自己学習フレームワークSLADEを提案する。
まず、ラベル付きデータに基づいて教師モデルをトレーニングし、ラベルなしデータに対して擬似ラベルを生成する。
次に、最終機能埋め込みを生成するために、ラベルと擬似ラベルの両方で学生モデルをトレーニングします。
論文 参考訳(メタデータ) (2020-11-20T08:26:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。