論文の概要: Simple and Robust Loss Design for Multi-Label Learning with Missing
Labels
- arxiv url: http://arxiv.org/abs/2112.07368v1
- Date: Mon, 13 Dec 2021 11:39:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-15 14:21:17.692345
- Title: Simple and Robust Loss Design for Multi-Label Learning with Missing
Labels
- Title(参考訳): ラベル欠落マルチラベル学習のための簡易かつロバストな損失設計
- Authors: Youcai Zhang, Yuhao Cheng, Xinyu Huang, Fei Wen, Rui Feng, Yaqian Li
and Yandong Guo
- Abstract要約: モデルが学習中に欠落したラベルを識別できる観察結果に基づいて,ロバストな損失設計による簡易かつ効果的な2つの手法を提案する。
1つ目は、ヒルの損失(ヒルの損失)であり、これは、偽陰性の影響を軽減するために丘の形状の負を再び重み付けするものである。
第2の手法はSPLC法であり、失ったラベルの近似分布の下で最大度基準から得られた損失を利用する。
- 参考スコア(独自算出の注目度): 14.7306301893944
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multi-label learning in the presence of missing labels (MLML) is a
challenging problem. Existing methods mainly focus on the design of network
structures or training schemes, which increase the complexity of
implementation. This work seeks to fulfill the potential of loss function in
MLML without increasing the procedure and complexity. Toward this end, we
propose two simple yet effective methods via robust loss design based on an
observation that a model can identify missing labels during training with a
high precision. The first is a novel robust loss for negatives, namely the Hill
loss, which re-weights negatives in the shape of a hill to alleviate the effect
of false negatives. The second is a self-paced loss correction (SPLC) method,
which uses a loss derived from the maximum likelihood criterion under an
approximate distribution of missing labels. Comprehensive experiments on a vast
range of multi-label image classification datasets demonstrate that our methods
can remarkably boost the performance of MLML and achieve new state-of-the-art
loss functions in MLML.
- Abstract(参考訳): 欠落ラベル(MLML)の存在下でのマルチラベル学習は難しい問題である。
既存の手法は主に、実装の複雑さを増大させるネットワーク構造やトレーニングスキームの設計に焦点を当てている。
本研究は,MLMLにおける損失関数の可能性を,手順や複雑性を増大させることなく実現しようとするものである。
そこで本研究では,学習中に欠落ラベルを高精度に識別できるという観測に基づいて,ロバスト損失設計による簡易かつ効果的な2つの手法を提案する。
1つ目は、ヒルの損失(ヒルの損失)であり、これは、偽陰性の影響を軽減するために丘の形状の負を再び重み付けするものである。
2つめは自己ペースド損失補正(splc)法であり、欠落ラベルの近似分布の下で最大確率基準から導出される損失を用いる。
幅広い多ラベル画像分類データセットに関する総合的な実験により、我々の手法はMLMLの性能を大幅に向上させ、MLMLにおける新しい最先端の損失関数を実現することができることを示した。
関連論文リスト
- A Consistent Lebesgue Measure for Multi-label Learning [5.544038300579187]
多ラベル損失関数は微分不可能であり、勾配に基づく最適化のために代理損失関数を必要とする。
CLML(Consistent Lebesgue Measure-based Multi-label Learner)を提案する。
CLMLがベイズリスクフレームワークの下で理論的整合性を達成できることを実証する。
論文 参考訳(メタデータ) (2024-02-01T04:17:15Z) - Querying Easily Flip-flopped Samples for Deep Active Learning [63.62397322172216]
アクティブラーニング(英: Active Learning)は、ラベルのないデータを戦略的に選択してクエリすることで、モデルの性能を向上させることを目的とした機械学習パラダイムである。
効果的な選択戦略の1つはモデルの予測の不確実性に基づくもので、サンプルがどの程度情報的であるかの尺度として解釈できる。
本稿では,予測されたラベルの不一致の最小確率として,最小不一致距離(LDM)を提案する。
論文 参考訳(メタデータ) (2024-01-18T08:12:23Z) - Decoupled Prototype Learning for Reliable Test-Time Adaptation [50.779896759106784]
テスト時間適応(TTA)は、推論中にトレーニング済みのソースモデルをターゲットドメインに継続的に適応させるタスクである。
1つの一般的なアプローチは、推定擬似ラベルによるクロスエントロピー損失を伴う微調整モデルである。
本研究は, 各試料の分類誤差を最小化することで, クロスエントロピー損失の脆弱性がラベルノイズを引き起こすことを明らかにした。
本稿では,プロトタイプ中心の損失計算を特徴とする新しいDPL法を提案する。
論文 参考訳(メタデータ) (2024-01-15T03:33:39Z) - Learning in Imperfect Environment: Multi-Label Classification with
Long-Tailed Distribution and Partial Labels [53.68653940062605]
新しいタスク, 部分ラベリングとLong-Tailed Multi-Label Classification (PLT-MLC) を導入する。
その結果,ほとんどのLT-MLCとPL-MLCは劣化MLCの解決に失敗していることがわかった。
textbfCOrrection $rightarrow$ textbfModificattextbfIon $rightarrow$ balantextbfCe。
論文 参考訳(メタデータ) (2023-04-20T20:05:08Z) - Easy Learning from Label Proportions [17.71834385754893]
Easyllpは、アグリゲーションラベルに基づいた、柔軟で簡単に実装可能なデバイアス方式である。
我々の手法は、任意のモデルが個々のレベルで予想される損失を正確に見積もることができる。
論文 参考訳(メタデータ) (2023-02-06T20:41:38Z) - Prototype-Anchored Learning for Learning with Imperfect Annotations [83.7763875464011]
不完全な注釈付きデータセットからバイアスのない分類モデルを学ぶことは困難である。
本稿では,様々な学習に基づく分類手法に容易に組み込むことができるプロトタイプ・アンコレッド学習法を提案する。
我々は,PALがクラス不均衡学習および耐雑音学習に与える影響を,合成および実世界のデータセットに関する広範な実験により検証した。
論文 参考訳(メタデータ) (2022-06-23T10:25:37Z) - Adaptive neighborhood Metric learning [184.95321334661898]
適応的近傍距離距離学習(ANML)という新しい距離距離距離距離距離距離学習アルゴリズムを提案する。
ANMLは線形埋め込みと深層埋め込みの両方を学ぶのに使うことができる。
本手法で提案するemphlog-exp平均関数は,深層学習手法をレビューするための新たな視点を与える。
論文 参考訳(メタデータ) (2022-01-20T17:26:37Z) - Sum of Ranked Range Loss for Supervised Learning [47.0464265614452]
本稿では,学習目標を定式化するための一般的なアプローチとして,ランキング範囲(SoRR)の和を紹介した。
ランク付き範囲は、実数の集合のソートされた値の連続的なシーケンスである。
サンプルレベルでのバイナリ/マルチクラス分類におけるAoRR集約損失と,ラベルレベルでのマルチラベル/マルチクラス分類におけるTKML個別損失という,SoRRフレームワークの最小化のための機械学習の2つの応用について検討する。
論文 参考訳(メタデータ) (2021-06-07T02:11:27Z) - Rethinking Deep Contrastive Learning with Embedding Memory [58.66613563148031]
ペアワイズ損失関数は広く研究され、dml(deep metric learning)のパフォーマンスを継続的に改善することが示されている。
本稿では,様々な対損失関数の重み付け戦略を体系的に研究する新しい手法を提案し,組重み付けを埋め込みメモリで再考する。
論文 参考訳(メタデータ) (2021-03-25T17:39:34Z) - Evolving parametrized Loss for Image Classification Learning on Small
Datasets [1.4685355149711303]
本稿ではメタロスネットワーク(MLN)と呼ばれるパラメタ化損失関数の進化のためのメタラーニング手法を提案する。
本手法では,MLNを識別対象関数として分類学習の枠組みに組み込む。
実験の結果,MLNは古典的クロスエントロピー誤差や平均二乗誤差と比較して,一般化を効果的に改善した。
論文 参考訳(メタデータ) (2021-03-15T10:00:18Z) - Bidirectional Loss Function for Label Enhancement and Distribution
Learning [23.61708127340584]
LDLには、学習過程における次元ギャップ問題への対処方法と、論理ラベルからラベル分布を復元する方法の2つの課題がある。
本研究では,LE問題とLCL問題に同時に適用可能な双方向投影関数について考察する。
LEとLDLの両方に対して提案手法の優位性を示すために,複数の実世界のデータセットの実験を行った。
論文 参考訳(メタデータ) (2020-07-07T03:02:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。