論文の概要: RankSim: Ranking Similarity Regularization for Deep Imbalanced
Regression
- arxiv url: http://arxiv.org/abs/2205.15236v1
- Date: Mon, 30 May 2022 16:51:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-31 13:22:39.307398
- Title: RankSim: Ranking Similarity Regularization for Deep Imbalanced
Regression
- Title(参考訳): ranksim: 深い不均衡回帰に対するランキング類似性の正規化
- Authors: Yu Gong, Greg Mori, Frederick Tung
- Abstract要約: RankSimはインダクティブバイアスを符号化し、ラベル空間に近くサンプルが特徴空間に近くなる。
RankSimは従来の不均衡学習手法を補完するものである。
- 参考スコア(独自算出の注目度): 48.58405556678924
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Data imbalance, in which a plurality of the data samples come from a small
proportion of labels, poses a challenge in training deep neural networks.
Unlike classification, in regression the labels are continuous, potentially
boundless, and form a natural ordering. These distinct features of regression
call for new techniques that leverage the additional information encoded in
label-space relationships. This paper presents the RankSim (ranking similarity)
regularizer for deep imbalanced regression, which encodes an inductive bias
that samples that are closer in label space should also be closer in feature
space. In contrast to recent distribution smoothing based approaches, RankSim
captures both nearby and distant relationships: for a given data sample,
RankSim encourages the sorted list of its neighbors in label space to match the
sorted list of its neighbors in feature space. RankSim is complementary to
conventional imbalanced learning techniques, including re-weighting, two-stage
training, and distribution smoothing, and lifts the state-of-the-art
performance on three imbalanced regression benchmarks: IMDB-WIKI-DIR,
AgeDB-DIR, and STS-B-DIR.
- Abstract(参考訳): データ不均衡は、複数のデータサンプルが少数のラベルから来るものであり、ディープニューラルネットワークのトレーニングにおいて課題となる。
分類とは異なり、回帰ではラベルは連続的で、潜在的に無限であり、自然な順序を形成する。
回帰のこれらの特徴はラベル空間関係にエンコードされた追加情報を活用する新しい技術を呼び出す。
本稿では,ラベル空間に近いサンプルを特徴空間に近づけるべき帰納的バイアスを符号化した,深い不均衡回帰のためのランクシム正則化器を提案する。
RankSimは、最近の分散スムーズなアプローチとは対照的に、あるデータサンプルに対して、ラベル空間内の隣人のソートリストを特徴空間内の隣人のソートリストに合わせるように推奨する。
RankSimは、再重み付け、二段階トレーニング、分散平滑化を含む従来の不均衡学習手法を補完し、3つの不均衡回帰ベンチマーク(IMDB-WIKI-DIR、 AgeDB-DIR、STS-B-DIR)で最先端のパフォーマンスを上げる。
関連論文リスト
- SimPro: A Simple Probabilistic Framework Towards Realistic Long-Tailed Semi-Supervised Learning [49.94607673097326]
ラベルなしデータの分散に関する前提を前提としない、高度に適応可能なフレームワークをSimProとして提案する。
我々のフレームワークは確率モデルに基づいており、期待最大化アルゴリズムを革新的に洗練する。
本手法は,様々なベンチマークやデータ分散シナリオにまたがる一貫した最先端性能を示す。
論文 参考訳(メタデータ) (2024-02-21T03:39:04Z) - RankMatch: A Novel Approach to Semi-Supervised Label Distribution
Learning Leveraging Inter-label Correlations [52.549807652527306]
本稿では,SSLDL (Semi-Supervised Label Distribution Learning) の革新的なアプローチである RankMatch を紹介する。
RankMatchは、ラベルのない大量のデータとともに、少数のラベル付き例を効果的に活用する。
我々はRandMatchに縛られる理論的な一般化を確立し、広範な実験を通じて既存のSSLDL法に対する性能上の優位性を実証した。
論文 参考訳(メタデータ) (2023-12-11T12:47:29Z) - Generating Unbiased Pseudo-labels via a Theoretically Guaranteed
Chebyshev Constraint to Unify Semi-supervised Classification and Regression [57.17120203327993]
分類におけるしきい値と擬似ラベルプロセス(T2L)は、ラベルの品質を決定するために信頼性を使用する。
本質的には、レグレッションは高品質なラベルを生成するためにバイアスのない方法も必要である。
チェビシェフの不等式に基づく不偏ラベルを生成するための理論的に保証された制約を提案する。
論文 参考訳(メタデータ) (2023-11-03T08:39:35Z) - ConR: Contrastive Regularizer for Deep Imbalanced Regression [6.5356646210003015]
ConRは、グローバルおよびローカルなラベル類似性を特徴空間でモデル化する対照的な正規化器である。
その結果,ConRは4つの大規模深層不均衡回帰ベンチマークにおける最先端手法の性能を著しく向上させることを示した。
論文 参考訳(メタデータ) (2023-09-13T00:30:32Z) - Neighbour Consistency Guided Pseudo-Label Refinement for Unsupervised
Person Re-Identification [80.98291772215154]
教師なしの人物再識別(ReID)は、アノテーションを使わずに人物検索のための識別的アイデンティティの特徴を学習することを目的としている。
近年の進歩はクラスタリングに基づく擬似ラベルを活用することで実現されている。
本稿では, Pseudo Label Refinement フレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-30T09:39:57Z) - Distribution-Aware Semantics-Oriented Pseudo-label for Imbalanced
Semi-Supervised Learning [80.05441565830726]
本稿では,疑似ラベルの重み付けがモデル性能に悪影響を及ぼすような,不均衡な半教師付き学習に対処する。
本稿では,この観測の動機となるバイアスに対処する,一般的な擬似ラベルフレームワークを提案する。
不均衡SSLのための新しい擬似ラベルフレームワークを、DASO(Distributed-Aware Semantics-Oriented Pseudo-label)と呼ぶ。
論文 参考訳(メタデータ) (2021-06-10T11:58:25Z) - SimPLE: Similar Pseudo Label Exploitation for Semi-Supervised
Classification [24.386165255835063]
一般的な分類タスクの状況は、トレーニングに利用可能な大量のデータを持っているが、クラスラベルを持つのはごく一部である。
この文脈で、半監督トレーニングの目標は、大量のラベルのないデータからの情報を利用して分類精度を向上させることです。
本研究では,相互に類似した高信頼度ラベル付きデータ間の研究の少ない関係に焦点をあてた,教師なしの新たな目的を提案する。
提案したSimPLEアルゴリズムは,CIFAR-100およびMini-ImageNetにおける従来のアルゴリズムと比較して有意な性能向上を示した。
論文 参考訳(メタデータ) (2021-03-30T23:48:06Z) - Imbalanced Continual Learning with Partitioning Reservoir Sampling [46.427023757892336]
シーケンシャルなデータストリームからの継続的な学習は、機械学習研究にとって重要な課題である。
予測不能な逆性は,多くの多ラベルデータセットにおいて自然に存在し,長い尾の分布を推定する。
本稿では,Reservoir Smpling (PRS) というリプレイ型アプローチのための新しいサンプリング手法を提案する。
論文 参考訳(メタデータ) (2020-09-08T10:28:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。