論文の概要: Collective Loss Function for Positive and Unlabeled Learning
- arxiv url: http://arxiv.org/abs/2005.03228v1
- Date: Wed, 6 May 2020 03:30:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-06 04:49:52.114749
- Title: Collective Loss Function for Positive and Unlabeled Learning
- Title(参考訳): ポジティブ学習とラベルなし学習のための集団損失関数
- Authors: Chenhao Xie, Qiao Cheng, Jiaqing Liang, Lihan Chen, Yanghua Xiao
- Abstract要約: 本稿では,正と未ラベルのデータのみから学習する集合的損失関数を提案する。
その結果,cPU は現状の PU 学習方法より一貫して優れていた。
- 参考スコア(独自算出の注目度): 19.058269616452545
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: People learn to discriminate between classes without explicit exposure to
negative examples. On the contrary, traditional machine learning algorithms
often rely on negative examples, otherwise the model would be prone to collapse
and always-true predictions. Therefore, it is crucial to design the learning
objective which leads the model to converge and to perform predictions
unbiasedly without explicit negative signals. In this paper, we propose a
Collectively loss function to learn from only Positive and Unlabeled data
(cPU). We theoretically elicit the loss function from the setting of PU
learning. We perform intensive experiments on the benchmark and real-world
datasets. The results show that cPU consistently outperforms the current
state-of-the-art PU learning methods.
- Abstract(参考訳): 人々は否定的な例に明示的に露出することなくクラスを区別することを学ぶ。
それとは対照的に、従来の機械学習アルゴリズムは、しばしば否定的な例に依存している。
したがって、モデルを収束させる学習目標を設計し、明示的な負の信号なしで不偏の予測を行うことが重要である。
本稿では,ポジティブデータとラベルなしデータ(cpu)のみから学習するための総損失関数を提案する。
理論的には、PU学習の設定から損失関数を導出する。
ベンチマークと実世界のデータセットで集中的な実験を行う。
その結果,cPU は最先端の PU 学習手法よりも一貫して優れていた。
関連論文リスト
- Probably Approximately Precision and Recall Learning [62.912015491907994]
精度とリコールは機械学習の基本的な指標である。
一方的なフィードバック – トレーニング中にのみ肯定的な例が観察される – は,多くの実践的な問題に固有のものだ。
PAC学習フレームワークでは,各仮説をグラフで表現し,エッジは肯定的な相互作用を示す。
論文 参考訳(メタデータ) (2024-11-20T04:21:07Z) - Attribute-to-Delete: Machine Unlearning via Datamodel Matching [65.13151619119782]
機械学習 -- 事前訓練された機械学習モデルで、小さな"ターゲットセット"トレーニングデータを効率的に削除する -- は、最近関心を集めている。
最近の研究では、機械学習技術はこのような困難な環境では耐えられないことが示されている。
論文 参考訳(メタデータ) (2024-10-30T17:20:10Z) - Contrastive Learning with Negative Sampling Correction [52.990001829393506]
PUCL(Positive-Unlabeled Contrastive Learning)という新しいコントラスト学習手法を提案する。
PUCLは生成した負のサンプルをラベルのないサンプルとして扱い、正のサンプルからの情報を用いて、対照的な損失のバイアスを補正する。
PUCLは一般的なコントラスト学習問題に適用でき、様々な画像やグラフの分類タスクにおいて最先端の手法より優れている。
論文 参考訳(メタデータ) (2024-01-13T11:18:18Z) - Beyond Myopia: Learning from Positive and Unlabeled Data through
Holistic Predictive Trends [26.79150786180822]
我々は、PULで興味深いが、長い間見過ごされてきた観察を公表する。
ポジティブクラスとネガティブクラスの予測傾向は、明らかに異なるパターンを示す。
本稿では,TPPにインスパイアされた新しいトレンド検出尺度を提案し,変化予測における不偏性を証明する。
論文 参考訳(メタデータ) (2023-10-06T08:06:15Z) - Robust Positive-Unlabeled Learning via Noise Negative Sample
Self-correction [48.929877651182885]
正および未ラベルのデータから学ぶことは、文学における正の未ラベル(PU)学習として知られている。
本研究では,人間の学習の性質を動機とした学習戦略を取り入れた,新しい堅牢なPU学習手法を提案する。
論文 参考訳(メタデータ) (2023-08-01T04:34:52Z) - Learning from Positive and Unlabeled Data with Augmented Classes [17.97372291914351]
Augmented Classes (PUAC) を用いたPU学習のための非バイアスリスク推定器を提案する。
提案手法は,最適解への収束を理論的に保証する推定誤差を導出する。
論文 参考訳(メタデータ) (2022-07-27T03:40:50Z) - Cross Pairwise Ranking for Unbiased Item Recommendation [57.71258289870123]
我々はCPR(Cross Pairwise Ranking)という新しい学習パラダイムを開発する。
CPRは、露出メカニズムを知らずに不偏の推奨を達成する。
理論的には、この方法が学習に対するユーザ/イテムの適合性の影響を相殺することを証明する。
論文 参考訳(メタデータ) (2022-04-26T09:20:27Z) - Agree to Disagree: Diversity through Disagreement for Better
Transferability [54.308327969778155]
本稿では,D-BAT(Diversity-By-dis-Agreement Training)を提案する。
我々は、D-BATが一般化された相違の概念から自然に現れることを示す。
論文 参考訳(メタデータ) (2022-02-09T12:03:02Z) - Dense Out-of-Distribution Detection by Robust Learning on Synthetic
Negative Data [1.7474352892977458]
道路走行シーンとリモートセンシング画像における分布外異常の検出方法を示す。
我々は,カバレッジ指向学習の目的と異なる解像度でサンプルを生成する能力により,共同で訓練された正規化フローを活用する。
結果として得られたモデルは、道路走行シーンとリモートセンシング画像におけるアウト・オブ・ディストリビューション検出のためのベンチマークに、新たな技術状況を設定した。
論文 参考訳(メタデータ) (2021-12-23T20:35:10Z) - MixPUL: Consistency-based Augmentation for Positive and Unlabeled
Learning [8.7382177147041]
本稿では, 整合性正規化に基づく簡易かつ効果的なデータ拡張手法である coinedalgo を提案する。
アルゴインコーポレートは、拡張データを生成するために、教師付きおよび教師なしの一貫性トレーニングを行う。
我々は,CIFAR-10データセットの分類誤差を16.49から13.09まで,それぞれ異なる正のデータ量で平均的に改善したことを示す。
論文 参考訳(メタデータ) (2020-04-20T15:43:33Z) - Learning from Positive and Unlabeled Data with Arbitrary Positive Shift [11.663072799764542]
本稿では,未ラベルデータに対して任意の非表現陽性データであってもPU学習が可能であることを示す。
これを統計的に一貫した2つの手法に統合し、任意の正のバイアスに対処する。
実験により,多数の実世界のデータセットにまたがる手法の有効性が示された。
論文 参考訳(メタデータ) (2020-02-24T13:53:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。