論文の概要: Imbalanced Regression Pipeline Recommendation
- arxiv url: http://arxiv.org/abs/2507.11901v1
- Date: Wed, 16 Jul 2025 04:34:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-17 19:00:11.225656
- Title: Imbalanced Regression Pipeline Recommendation
- Title(参考訳): 不均衡回帰パイプライン勧告
- Authors: Juscimara G. Avelino, George D. C. Cavalcanti, Rafael M. O. Cruz,
- Abstract要約: 本稿では,不均衡回帰(Meta-IR)フレームワークのメタラーニングを提案する。
メタ分類器をトレーニングして、タスクごとの再サンプリング戦略と学習モデルで構成される最高のパイプラインを推奨する。
AutoMLフレームワークと比較して、Meta-IRはより良い結果を得た。
- 参考スコア(独自算出の注目度): 5.863538874435322
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Imbalanced problems are prevalent in various real-world scenarios and are extensively explored in classification tasks. However, they also present challenges for regression tasks due to the rarity of certain target values. A common alternative is to employ balancing algorithms in preprocessing to address dataset imbalance. However, due to the variety of resampling methods and learning models, determining the optimal solution requires testing many combinations. Furthermore, the learning model, dataset, and evaluation metric affect the best strategies. This work proposes the Meta-learning for Imbalanced Regression (Meta-IR) framework, which diverges from existing literature by training meta-classifiers to recommend the best pipeline composed of the resampling strategy and learning model per task in a zero-shot fashion. The meta-classifiers are trained using a set of meta-features to learn how to map the meta-features to the classes indicating the best pipeline. We propose two formulations: Independent and Chained. Independent trains the meta-classifiers to separately indicate the best learning algorithm and resampling strategy. Chained involves a sequential procedure where the output of one meta-classifier is used as input for another to model intrinsic relationship factors. The Chained scenario showed superior performance, suggesting a relationship between the learning algorithm and the resampling strategy per task. Compared with AutoML frameworks, Meta-IR obtained better results. Moreover, compared with baselines of six learning algorithms and six resampling algorithms plus no resampling, totaling 42 (6 X 7) configurations, Meta-IR outperformed all of them. The code, data, and further information of the experiments can be found on GitHub: https://github.com/JusciAvelino/Meta-IR.
- Abstract(参考訳): 不均衡問題は様々な現実世界のシナリオで発生し、分類タスクで広く研究されている。
しかし、特定の目標値の希少性のため、回帰タスクの課題も提示する。
一般的な選択肢は、データセットの不均衡に対処するために、前処理にバランシングアルゴリズムを採用することだ。
しかし、様々な再サンプリング手法や学習モデルにより、最適解を決定するには、多くの組み合わせをテストする必要がある。
さらに、学習モデル、データセット、評価基準が最良の戦略に影響を与える。
このフレームワークは、メタ分類器を訓練することで既存の文献から分岐し、ゼロショット方式でタスク毎のリサンプリング戦略と学習モデルからなる最高のパイプラインを推奨する。
メタ分類器は、メタ特徴のセットを使用してトレーニングされ、メタ特徴を最適なパイプラインを示すクラスにマップする方法を学ぶ。
我々は独立性と連鎖性という2つの定式化を提案する。
独立してメタ分類器を訓練し、最高の学習アルゴリズムと再サンプリング戦略を別々に示す。
Chainedは、あるメタ分類器の出力を入力として使用し、固有の関係因子をモデル化するシーケンシャルな手順を含む。
Chainedのシナリオは優れたパフォーマンスを示し、学習アルゴリズムとタスク毎の再サンプリング戦略の関係が示唆された。
AutoMLフレームワークと比較して、Meta-IRはより良い結果を得た。
さらに、6つの学習アルゴリズムと6つの再サンプリングアルゴリズムのベースラインに加えて、42(6 X 7)構成のリサンプリングも行わず、Meta-IRはそれらすべてを上回った。
実験のコード、データ、さらに詳しい情報はGitHubにある。
関連論文リスト
- How Should We Meta-Learn Reinforcement Learning Algorithms? [74.37180723338591]
メタ学習型アルゴリズムに適用した場合、異なるアプローチの実証的な比較を行う。
また, メタトレインとメタテスト性能に加えて, 解釈可能性, サンプルコスト, 列車時間などの要因についても検討した。
我々は,将来学習されるアルゴリズムが可能な限り高性能であることを保証するために,新しいRLアルゴリズムをメタラーニングするためのガイドラインをいくつか提案する。
論文 参考訳(メタデータ) (2025-07-23T16:31:38Z) - Learning to Learn with Indispensable Connections [6.040904021861969]
本稿では,メタ-LTHと呼ばれるメタ-LTHと呼ばれるメタ-ラーニング手法を提案する。
本手法は,オムニグロットデータセットの分類精度を約2%向上させる。
論文 参考訳(メタデータ) (2023-04-06T04:53:13Z) - Oracle Inequalities for Model Selection in Offline Reinforcement
Learning [105.74139523696284]
本稿では,値関数近似を用いたオフラインRLにおけるモデル選択の問題について検討する。
対数係数まで最小値の速度-最適不等式を実現するオフラインRLの最初のモデル選択アルゴリズムを提案する。
そこで本研究では,優れたモデルクラスを確実に選択できることを示す数値シミュレーションを行った。
論文 参考訳(メタデータ) (2022-11-03T17:32:34Z) - Which is the best model for my data? [0.0]
提案されたメタ学習アプローチは、機械学習に依存し、4つの主要なステップを含む。
本稿では,正と負の測度を含む集約測度値において,情報消去の問題に対処する62のメタ特徴の集合について述べる。
我々のメタ学習アプローチは、合成データセットの91%と実世界のデータセットの87%に対して、最適なモデルを正確に予測できることを示します。
論文 参考訳(メタデータ) (2022-10-26T13:15:43Z) - Towards Automated Imbalanced Learning with Deep Hierarchical
Reinforcement Learning [57.163525407022966]
不均衡学習はデータマイニングにおいて基本的な課題であり、各クラスにトレーニングサンプルの不均等な比率が存在する。
オーバーサンプリングは、少数民族のための合成サンプルを生成することによって、不均衡な学習に取り組む効果的な手法である。
我々は,異なるレベルの意思決定を共同で最適化できる自動オーバーサンプリングアルゴリズムであるAutoSMOTEを提案する。
論文 参考訳(メタデータ) (2022-08-26T04:28:01Z) - Memory-Based Optimization Methods for Model-Agnostic Meta-Learning and
Personalized Federated Learning [56.17603785248675]
モデルに依存しないメタラーニング (MAML) が人気のある研究分野となっている。
既存のMAMLアルゴリズムは、イテレーション毎にメタモデルを更新するためにいくつかのタスクとデータポイントをサンプリングすることで、エピソードのアイデアに依存している。
本稿では,MAMLのメモリベースアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-09T08:47:58Z) - Fast Few-Shot Classification by Few-Iteration Meta-Learning [173.32497326674775]
数ショット分類のための高速な最適化に基づくメタラーニング手法を提案する。
我々の戦略はメタ学習において学習すべき基礎学習者の目的の重要な側面を可能にする。
我々は、我々のアプローチの速度と効果を実証し、総合的な実験分析を行う。
論文 参考訳(メタデータ) (2020-10-01T15:59:31Z) - Improving Generalization in Meta-learning via Task Augmentation [69.83677015207527]
本稿ではMetaMixとChannel Shuffleの2つのタスク拡張手法を提案する。
MetaMixとChannel Shuffleはどちらも、多くのデータセットにまたがる大きなマージンによって、最先端の結果を上回っている。
論文 参考訳(メタデータ) (2020-07-26T01:50:42Z) - Covariate Distribution Aware Meta-learning [3.494950334697974]
本稿では,有意義な緩和を導入することで,計算可能なメタ学習アルゴリズムを提案する。
一般的な分類ベンチマークに基づいて,ブートストラップによるメタラーニングベースラインに対するアルゴリズムの優位性を実証する。
論文 参考訳(メタデータ) (2020-07-06T05:00:13Z) - Incremental Meta-Learning via Indirect Discriminant Alignment [118.61152684795178]
メタ学習のメタ学習段階において,段階的な学習の概念を発達させる。
我々のアプローチは、完全なメタトレーニングセットでモデルをトレーニングするのと比べて、テスト時に好適に機能する。
論文 参考訳(メタデータ) (2020-02-11T01:39:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。