論文の概要: Self-PU: Self Boosted and Calibrated Positive-Unlabeled Training
- arxiv url: http://arxiv.org/abs/2006.11280v1
- Date: Mon, 22 Jun 2020 17:53:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-18 04:36:03.397832
- Title: Self-PU: Self Boosted and Calibrated Positive-Unlabeled Training
- Title(参考訳): self-pu: 自己ブーストと校正なしプラスラベルトレーニング
- Authors: Xuxi Chen, Wuyang Chen, Tianlong Chen, Ye Yuan, Chen Gong, Kewei Chen,
Zhangyang Wang
- Abstract要約: 本稿では,PU学習と自己学習をシームレスに統合する,新しい自己学習フレームワークを提案する。
Self-PUは3つの"自己"指向のビルディングブロックを強調している。
本稿では,アルツハイマー病の脳画像の分類という,PU学習の現実的応用について検討する。
- 参考スコア(独自算出の注目度): 118.10946662410639
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Many real-world applications have to tackle the Positive-Unlabeled (PU)
learning problem, i.e., learning binary classifiers from a large amount of
unlabeled data and a few labeled positive examples. While current
state-of-the-art methods employ importance reweighting to design various risk
estimators, they ignored the learning capability of the model itself, which
could have provided reliable supervision. This motivates us to propose a novel
Self-PU learning framework, which seamlessly integrates PU learning and
self-training. Self-PU highlights three "self"-oriented building blocks: a
self-paced training algorithm that adaptively discovers and augments confident
positive/negative examples as the training proceeds; a self-calibrated
instance-aware loss; and a self-distillation scheme that introduces
teacher-students learning as an effective regularization for PU learning. We
demonstrate the state-of-the-art performance of Self-PU on common PU learning
benchmarks (MNIST and CIFAR-10), which compare favorably against the latest
competitors. Moreover, we study a real-world application of PU learning, i.e.,
classifying brain images of Alzheimer's Disease. Self-PU obtains significantly
improved results on the renowned Alzheimer's Disease Neuroimaging Initiative
(ADNI) database over existing methods. The code is publicly available at:
https://github.com/TAMU-VITA/Self-PU.
- Abstract(参考訳): 多くの実世界のアプリケーションは、多くのラベルなしデータといくつかのラベル付きポジティブな例からバイナリ分類器を学習する、ポジティブラベル付き(pu)学習問題に取り組む必要がある。
現在の最先端の手法では、様々なリスク推定器の設計に重大化を用いるが、彼らはモデル自体の学習能力を無視した。
そこで我々は,PU学習と自己学習をシームレスに統合する,新しい自己学習フレームワークを提案する。
Self-PUは3つの"セルフ"指向のビルディングブロックを強調している。トレーニングが進むにつれて、自信のある肯定的/否定的な事例を適応的に発見し、強化するセルフペーストトレーニングアルゴリズム、自己校正されたインスタンス認識損失、PU学習の効果的な正規化として教師-学生学習を導入する自己蒸留スキームだ。
我々は、最新の競合相手と比較し、一般的なPU学習ベンチマーク(MNISTとCIFAR-10)におけるSelf-PUの最先端性能を実証する。
さらに,アルツハイマー病の脳画像の分類という,PU学習の現実的な応用について検討した。
Self-PUは、アルツハイマー病神経画像イニシアチブ(ADNI)データベースにおいて、既存の方法よりも大幅に改善された結果を得る。
コードはhttps://github.com/TAMU-VITA/Self-PUで公開されている。
関連論文リスト
- Training Language Models to Self-Correct via Reinforcement Learning [98.35197671595343]
自己補正は、現代の大規模言語モデル(LLM)では、ほとんど効果がないことが判明した。
完全自己生成データを用いたLLMの自己補正能力を大幅に向上させるマルチターンオンライン強化学習手法であるSCoReを開発した。
SCoReは最先端の自己補正性能を実現し,MATHとHumanEvalでそれぞれ15.6%,9.1%向上した。
論文 参考訳(メタデータ) (2024-09-19T17:16:21Z) - Unlearning with Control: Assessing Real-world Utility for Large Language Model Unlearning [97.2995389188179]
最近の研究は、勾配上昇(GA)を通した大規模言語モデル(LLM)の未学習にアプローチし始めている。
その単純さと効率性にもかかわらず、我々はGAベースの手法が過剰な未学習の傾向に直面することを示唆している。
過剰な未学習の度合いを制御できるいくつかの制御手法を提案する。
論文 参考訳(メタデータ) (2024-06-13T14:41:00Z) - LLMs Could Autonomously Learn Without External Supervision [36.36147944680502]
大規模言語モデル(LLM)は、伝統的に人間の注釈付きデータセットと事前定義されたトレーニング目標に結び付けられてきた。
本稿では,LLMのための自律学習手法を提案する。
本手法は, LLMに対して, 文章と直接対話して自己学習を行う能力を与える。
論文 参考訳(メタデータ) (2024-06-02T03:36:37Z) - Incremental Self-training for Semi-supervised Learning [56.57057576885672]
ISTは単純だが有効であり、既存の自己学習に基づく半教師あり学習手法に適合する。
提案したISTを5つのデータセットと2種類のバックボーンで検証し,認識精度と学習速度を効果的に向上させる。
論文 参考訳(メタデータ) (2024-04-14T05:02:00Z) - SELFI: Autonomous Self-Improvement with Reinforcement Learning for Social Navigation [54.97931304488993]
体験と対話し、改善する自己改善ロボットは、ロボットシステムの現実的な展開の鍵となる。
本研究では,オンラインロボット体験を活用したオンライン学習手法であるSELFIを提案する。
本研究では, 衝突回避の観点からの改善と, より社会的に順応する行動について報告する。
論文 参考訳(メタデータ) (2024-03-01T21:27:03Z) - Contrastive Approach to Prior Free Positive Unlabeled Learning [15.269090018352875]
本稿では,前文不変表現学習を通じて特徴空間を学習することから始まる,新しいPU学習フレームワークを提案する。
提案手法は,いくつかの標準PUベンチマークデータセットにおいて,最先端のPU学習手法より優れている。
論文 参考訳(メタデータ) (2024-02-08T20:20:54Z) - Automated Machine Learning for Positive-Unlabelled Learning [1.450405446885067]
Positive-Unlabelled (PU) 学習は機械学習の分野として成長している。
本稿では,新しい進化的/ベイズ的最適化アプローチをベースとしたBO-Auto-PUと,進化的/ベイズ的最適化アプローチに基づくEBO-Auto-PUという,PU学習のための2つの新しいAuto-MLシステムを提案する。
また,3つのAuto-MLシステムについて広範囲な評価を行い,それらを相互比較し,60個のデータセットにまたがるよく確立されたPU学習手法を提案する。
論文 参考訳(メタデータ) (2024-01-12T08:54:34Z) - Self-Supervised Learning for Audio-Based Emotion Recognition [1.7598252755538808]
自己教師付き学習は、教師付きラベルの不足にもかかわらず学習できる方法のファミリーである。
我々は,CMU-MOSEIの音響モダリティからの感情の分類に自己教師付き学習事前学習を適用した。
自己教師型学習は、すべてのメトリクスにわたるモデルの性能を一貫して改善する。
論文 参考訳(メタデータ) (2023-07-23T14:40:50Z) - Improving Self-supervised Learning with Automated Unsupervised Outlier
Arbitration [83.29856873525674]
本稿では,自己教師型学習のためのビューサンプリング問題を対象とした,軽量潜在変数モデル UOTA を提案する。
本手法は,多くの主流な自己指導型学習手法に直接応用する。
論文 参考訳(メタデータ) (2021-12-15T14:05:23Z) - Episodic Self-Imitation Learning with Hindsight [7.743320290728377]
エピソード自己像学習は、軌道選択モジュールと適応的損失関数を備えた新しい自己像アルゴリズムである。
更新の各エピソードから不正なサンプルをフィルタリングするために選択モジュールが導入された。
エピソード自己イメージ学習は、連続的な行動空間を持つ実世界の問題に適用できる可能性がある。
論文 参考訳(メタデータ) (2020-11-26T20:36:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。