論文の概要: Learning Subjective Time-Series Data via Utopia Label Distribution
Approximation
- arxiv url: http://arxiv.org/abs/2307.07682v1
- Date: Sat, 15 Jul 2023 02:11:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-18 18:39:05.346982
- Title: Learning Subjective Time-Series Data via Utopia Label Distribution
Approximation
- Title(参考訳): utopiaラベル分布近似による主観的時系列データの学習
- Authors: Wenxin Xu, Hexin Jiang, Xuefeng Liang, Ying Zhou, Yin Zhao, Jie Zhang
- Abstract要約: 時系列データに対するUtopia Label Distribution Approximation (ULDA)を提案する。
ULDAはトレーニングラベルの分布を実世界に近いものにしているが、未知の(ユートピア)ラベルの分布に近づける。
時系列データにおけるラベル分布バイアスに対処する最初の方法である。
- 参考スコア(独自算出の注目度): 17.5069684257232
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Subjective time-series regression (STR) tasks have gained increasing
attention recently. However, most existing methods overlook the label
distribution bias in STR data, which results in biased models. Emerging studies
on imbalanced regression tasks, such as age estimation and depth estimation,
hypothesize that the prior label distribution of the dataset is uniform.
However, we observe that the label distributions of training and test sets in
STR tasks are likely to be neither uniform nor identical. This distinct feature
calls for new approaches that estimate more reasonable distributions to train a
fair model. In this work, we propose Utopia Label Distribution Approximation
(ULDA) for time-series data, which makes the training label distribution closer
to real-world but unknown (utopia) label distribution. This would enhance the
model's fairness. Specifically, ULDA first convolves the training label
distribution by a Gaussian kernel. After convolution, the required sample
quantity at each regression label may change. We further devise the Time-slice
Normal Sampling (TNS) to generate new samples when the required sample quantity
is greater than the initial sample quantity, and the Convolutional Weighted
Loss (CWL) to lower the sample weight when the required sample quantity is less
than the initial quantity. These two modules not only assist the model training
on the approximated utopia label distribution, but also maintain the sample
continuity in temporal context space. To the best of our knowledge, ULDA is the
first method to address the label distribution bias in time-series data.
Extensive experiments demonstrate that ULDA lifts the state-of-the-art
performance on two STR tasks and three benchmark datasets.
- Abstract(参考訳): 近年,主観的時系列回帰(STR)タスクが注目されている。
しかし、既存の手法の多くはstrデータのラベル分布バイアスを見落としており、バイアスモデルとなる。
年齢推定や深度推定などの不均衡回帰タスクに関する新しい研究は、データセットの先行ラベル分布が一様であることを仮定している。
しかし、STRタスクにおけるトレーニングセットとテストセットのラベル分布は、均一でも同一でもない可能性が高い。
この特徴は、公正なモデルをトレーニングするためのより合理的な分布を見積もる新しいアプローチを要求する。
本研究では,時系列データに対する utopia label distribution approximation (ulda) を提案する。
これによりモデルの公平性が向上する。
具体的には、ULDAはまずガウスカーネルによるトレーニングラベルの分布を包含する。
畳み込み後、各回帰ラベルの必要なサンプル量を変更することができる。
さらに,時間スライス正規サンプリング(TNS)を用いて,必要試料量が初期試料量より大きい場合に新しい試料を生成するとともに,必要試料量が初期試料量より少ない場合には,CWL(Convolutional Weighted Loss)を用いて試料重量を減少させる。
これら2つのモジュールは、近似したユートピアラベル分布のモデルトレーニングを支援するだけでなく、時間的文脈空間におけるサンプル連続性を維持する。
我々の知る限り、ULDAは時系列データのラベル分布バイアスに対処する最初の方法である。
大規模な実験により、ULDAは2つのSTRタスクと3つのベンチマークデータセットで最先端のパフォーマンスを引き上げている。
関連論文リスト
- DOTA: Distributional Test-Time Adaptation of Vision-Language Models [52.98590762456236]
トレーニングフリーテスト時動的アダプタ(TDA)は、この問題に対処するための有望なアプローチである。
単体テスト時間適応法(Dota)の簡易かつ効果的な方法を提案する。
Dotaは継続的にテストサンプルの分布を推定し、モデルがデプロイメント環境に継続的に適応できるようにします。
論文 参考訳(メタデータ) (2024-09-28T15:03:28Z) - Probabilistic Contrastive Learning for Long-Tailed Visual Recognition [78.70453964041718]
細長い分布は、少数の少数派が限られた数のサンプルを含む実世界のデータにしばしば現れる。
近年の研究では、教師付きコントラスト学習がデータ不均衡を緩和する有望な可能性を示していることが明らかになっている。
本稿では,特徴空間の各クラスからのサンプルデータ分布を推定する確率論的コントラスト学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-03-11T13:44:49Z) - Twice Class Bias Correction for Imbalanced Semi-Supervised Learning [59.90429949214134]
textbfTwice textbfClass textbfBias textbfCorrection (textbfTCBC) と呼ばれる新しいアプローチを導入する。
トレーニング過程におけるモデルパラメータのクラスバイアスを推定する。
非ラベル標本に対してモデルの擬似ラベルに二次補正を適用する。
論文 参考訳(メタデータ) (2023-12-27T15:06:36Z) - Learning with Noisy Labels over Imbalanced Subpopulations [13.477553187049462]
ノイズラベル(LNL)による学習は,研究コミュニティから大きな注目を集めている。
ノイズラベルと不均衡なサブポピュレーションを同時に扱う新しいLNL法を提案する。
試料のクリーンな確率を推定するために, 試料相関を考慮に入れた特徴量測定手法を提案する。
論文 参考訳(メタデータ) (2022-11-16T07:25:24Z) - A Data Cartography based MixUp for Pre-trained Language Models [47.90235939359225]
MixUpは、トレーニング中にランダムなトレーニングサンプルとラベルを組み合わせて追加のサンプルを生成するデータ拡張戦略である。
トレーニングダイナミクスを活用した新しいMixUp戦略であるTDMixUpを提案する。
提案手法は, トレーニングデータの少ないサブセットと強いベースラインとを比較した場合, また, NLPタスクの領域内および領域外の両方で, トレーニング済み言語モデルであるBERTのキャリブレーション誤差が低いことを実証的に検証した。
論文 参考訳(メタデータ) (2022-05-06T17:59:19Z) - Sampling Bias Correction for Supervised Machine Learning: A Bayesian
Inference Approach with Practical Applications [0.0]
本稿では,データセットがラベルの不均衡などの意図的なサンプルバイアスを受ける可能性がある問題について議論する。
次に、この解をバイナリロジスティック回帰に適用し、データセットが意図的にサンプルバイアスを受けるシナリオについて議論する。
この手法は, 医療科学から画像認識, マーケティングに至るまで, ビッグデータの統計的推測に広く応用できる。
論文 参考訳(メタデータ) (2022-03-11T20:46:37Z) - An analysis of over-sampling labeled data in semi-supervised learning
with FixMatch [66.34968300128631]
ほとんどの半教師付き学習手法は、ミニバッチを訓練する際にラベルをオーバーサンプルする。
本稿では,この実践が学習と方法を改善するかどうかを考察する。
ラベル付けの有無に関わらず、トレーニングデータから各ミニバッチを均一にサンプリングする別の設定と比較する。
論文 参考訳(メタデータ) (2022-01-03T12:22:26Z) - Unrolling Particles: Unsupervised Learning of Sampling Distributions [102.72972137287728]
粒子フィルタリングは複素系の優れた非線形推定を計算するために用いられる。
粒子フィルタは様々なシナリオにおいて良好な推定値が得られることを示す。
論文 参考訳(メタデータ) (2021-10-06T16:58:34Z) - Free Lunch for Few-shot Learning: Distribution Calibration [10.474018806591397]
キャリブレーション分布から抽出した特徴を用いて学習した単純なロジスティック回帰分類器は、2つのデータセットにおける最先端の精度より優れていることを示す。
論文 参考訳(メタデータ) (2021-01-16T07:58:40Z) - Distributional Reinforcement Learning via Moment Matching [54.16108052278444]
ニューラルネットワークを用いて各戻り分布から統計量の有限集合を学習する手法を定式化する。
我々の手法は、戻り分布とベルマン目標の間のモーメントの全ての順序を暗黙的に一致させるものとして解釈できる。
Atariゲームスイートの実験により,本手法は標準分布RLベースラインよりも優れていることが示された。
論文 参考訳(メタデータ) (2020-07-24T05:18:17Z) - Rethinking Curriculum Learning with Incremental Labels and Adaptive
Compensation [35.593312267921256]
人間と同様に、ディープネットワークは、サンプルが組織化され、意味のある順序やカリキュラムで導入されたときに、よりよく学習することが示されている。
インクリメンタルラベルと適応補償を用いた学習(LILAC)を提案する。
論文 参考訳(メタデータ) (2020-01-13T21:00:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。