論文の概要: RankUp: Boosting Semi-Supervised Regression with an Auxiliary Ranking Classifier
- arxiv url: http://arxiv.org/abs/2410.22124v1
- Date: Tue, 29 Oct 2024 15:25:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-30 13:42:51.669184
- Title: RankUp: Boosting Semi-Supervised Regression with an Auxiliary Ranking Classifier
- Title(参考訳): RankUp: Auxiliary Ranking Classifierによる半スーパービジョン回帰の強化
- Authors: Pin-Yen Huang, Szu-Wei Fu, Yu Tsao,
- Abstract要約: 最新技術(SOTA)の半教師付き学習技術であるFixMatchやその変種は、分類タスクにおいて印象的なパフォーマンスを示している。
本稿では,既存の半教師付き分類手法を応用し,回帰タスクの性能を向上させるための簡易かつ効果的なアプローチであるRangeUpを提案する。
- 参考スコア(独自算出の注目度): 21.37308028303897
- License:
- Abstract: State-of-the-art (SOTA) semi-supervised learning techniques, such as FixMatch and it's variants, have demonstrated impressive performance in classification tasks. However, these methods are not directly applicable to regression tasks. In this paper, we present RankUp, a simple yet effective approach that adapts existing semi-supervised classification techniques to enhance the performance of regression tasks. RankUp achieves this by converting the original regression task into a ranking problem and training it concurrently with the original regression objective. This auxiliary ranking classifier outputs a classification result, thus enabling integration with existing semi-supervised classification methods. Moreover, we introduce regression distribution alignment (RDA), a complementary technique that further enhances RankUp's performance by refining pseudo-labels through distribution alignment. Despite its simplicity, RankUp, with or without RDA, achieves SOTA results in across a range of regression benchmarks, including computer vision, audio, and natural language processing tasks. Our code and log data are open-sourced at https://github.com/pm25/semi-supervised-regression.
- Abstract(参考訳): 最新技術(SOTA)の半教師付き学習技術であるFixMatchやその変種は、分類タスクにおいて印象的なパフォーマンスを示している。
しかし、これらの手法は回帰処理には直接適用されない。
本稿では,既存の半教師付き分類手法を応用し,回帰タスクの性能を向上させるための簡易かつ効果的なアプローチであるRangeUpを提案する。
RankUpは、元の回帰タスクをランキング問題に変換し、元の回帰目標と並行してトレーニングすることで、これを実現する。
この補助ランク分類器は、既存の半教師付き分類手法との統合を可能にするように、分類結果を出力する。
さらに,レグレッション・ディストリビューション・アライメント(RDA)を導入し,分布アライメントを通じて擬似ラベルを精製することによりRanUpのパフォーマンスをさらに向上させる手法を提案する。
単純さにもかかわらず、RangeUpはRDAの有無に関わらず、コンピュータビジョン、オーディオ、自然言語処理タスクを含む様々な回帰ベンチマークでSOTA結果を達成する。
コードとログデータはhttps://github.com/pm25/semi-supervised-regression.comで公開されている。
関連論文リスト
- Task-recency bias strikes back: Adapting covariances in Exemplar-Free Class Incremental Learning [0.3281128493853064]
過去のデータにアクセスせずにタスクのシーケンス上でモデルをトレーニングする問題に対処する。
既存の方法は、特徴抽出器の潜在空間におけるガウス分布としてクラスを表す。
本稿では,タスクからタスクへ共分散行列を適用する新しい手法であるAdaGaussを提案する。
論文 参考訳(メタデータ) (2024-09-26T20:18:14Z) - Rethinking Classifier Re-Training in Long-Tailed Recognition: A Simple
Logits Retargeting Approach [102.0769560460338]
我々は,クラスごとのサンプル数に関する事前知識を必要とせず,シンプルなロジットアプローチ(LORT)を開発した。
提案手法は,CIFAR100-LT, ImageNet-LT, iNaturalist 2018など,様々な不均衡データセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2024-03-01T03:27:08Z) - A Hard-to-Beat Baseline for Training-free CLIP-based Adaptation [121.0693322732454]
対照的に、CLIP(Contrastive Language- Image Pretraining)はその目覚ましいゼロショット能力で人気を集めている。
近年の研究では、下流タスクにおけるCLIPの性能を高めるための効率的な微調整手法の開発に焦点が当てられている。
従来のアルゴリズムであるガウス判別分析(GDA)を再検討し,CLIPの下流分類に適用する。
論文 参考訳(メタデータ) (2024-02-06T15:45:27Z) - Generating Unbiased Pseudo-labels via a Theoretically Guaranteed
Chebyshev Constraint to Unify Semi-supervised Classification and Regression [57.17120203327993]
分類におけるしきい値と擬似ラベルプロセス(T2L)は、ラベルの品質を決定するために信頼性を使用する。
本質的には、レグレッションは高品質なラベルを生成するためにバイアスのない方法も必要である。
チェビシェフの不等式に基づく不偏ラベルを生成するための理論的に保証された制約を提案する。
論文 参考訳(メタデータ) (2023-11-03T08:39:35Z) - Deep Imbalanced Regression via Hierarchical Classification Adjustment [50.19438850112964]
コンピュータビジョンにおける回帰タスクは、しばしば、対象空間をクラスに定量化することで分類される。
トレーニングサンプルの大多数は目標値の先頭にあるが、少数のサンプルは通常より広い尾幅に分布する。
不均衡回帰タスクを解くために階層型分類器を構築することを提案する。
不均衡回帰のための新しい階層型分類調整(HCA)は,3つのタスクにおいて優れた結果を示す。
論文 参考訳(メタデータ) (2023-10-26T04:54:39Z) - Okapi: Generalising Better by Making Statistical Matches Match [7.392460712829188]
オカピは、オンライン統計マッチングに基づく頑健な半教師あり学習のためのシンプルで効率的で汎用的な方法である。
提案手法では, 最寄りのマッチング手法を用いて, 整合性損失に対するクロスドメインビューを生成する。
経験的リスクの最小化を改善するために、余分な遅延のないデータを活用することは実際に可能であることを示す。
論文 参考訳(メタデータ) (2022-11-07T12:41:17Z) - Improving Self-supervised Learning for Out-of-distribution Task via
Auxiliary Classifier [6.61825491400122]
我々は,OODタスクにおける回転予測(自己教師付き)精度と意味分類精度の強い関係を観察する。
マルチタスクネットワークにセマンティックな分類と回転予測と共に補助的な分類ヘッドを導入する。
提案手法は,上層部で意味分類と回転予測のパラメータを更新する2段階最適化問題である。
論文 参考訳(メタデータ) (2022-09-07T02:00:01Z) - Open-Set Recognition: A Good Closed-Set Classifier is All You Need [146.6814176602689]
分類器が「ゼロ・オブ・ア・ア・ア・ベ」決定を行う能力は、閉集合クラスにおける精度と高い相関関係があることが示される。
この相関を利用して、閉セット精度を向上させることにより、クロスエントロピーOSR'ベースライン'の性能を向上させる。
また、セマンティックノベルティを検出するタスクをより尊重する新しいベンチマークを構築した。
論文 参考訳(メタデータ) (2021-10-12T17:58:59Z) - Pre-training Is (Almost) All You Need: An Application to Commonsense
Reasoning [61.32992639292889]
事前学習されたトランスモデルの微調整は、一般的なNLPタスクを解決するための標準的なアプローチとなっている。
そこで本研究では,可視性ランキングタスクをフルテキスト形式でキャストする新たなスコアリング手法を提案する。
提案手法は, ランダム再起動にまたがって, より安定した学習段階を提供することを示す。
論文 参考訳(メタデータ) (2020-04-29T10:54:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。