論文の概要: Positive unlabeled learning with tensor networks
- arxiv url: http://arxiv.org/abs/2211.14085v1
- Date: Fri, 25 Nov 2022 13:14:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-28 15:34:59.304240
- Title: Positive unlabeled learning with tensor networks
- Title(参考訳): テンソルネットワークを用いた正のラベルなし学習
- Authors: Bojan \v{Z}unkovi\v{c}
- Abstract要約: 局所的に精製された状態テンソルネットワークを正の未ラベル学習問題に適用する。
ラベル付き正のサンプルは少ないが, 最先端の結果が得られている。
我々の手法は、新しい正および負のインスタンスを生成することができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Positive unlabeled learning is a binary classification problem with positive
and unlabeled data. It is common in domains where negative labels are costly or
impossible to obtain, e.g., medicine and personalized advertising. We apply the
locally purified state tensor network to the positive unlabeled learning
problem and test our model on the MNIST image and 15 categorical/mixed
datasets. On the MNIST dataset, we achieve state-of-the-art results even with
very few labeled positive samples. Similarly, we significantly improve the
state-of-the-art on categorical datasets. Further, we show that the agreement
fraction between outputs of different models on unlabeled samples is a good
indicator of the model's performance. Finally, our method can generate new
positive and negative instances, which we demonstrate on simple synthetic
datasets.
- Abstract(参考訳): 正のラベルなし学習は正のラベルなしデータを持つ二項分類問題である。
医療やパーソナライズされた広告など、ネガティブなラベルが高価または不可能なドメインでは一般的である。
局所的に精製された状態テンソルネットワークを正のラベル付き学習問題に適用し、MNIST画像と15の分類/混合データセット上でモデルをテストする。
MNISTデータセットでは,非常に少ないラベル付き正のサンプルでも最先端の結果が得られる。
同様に、分類データセットの最先端性を大幅に改善する。
さらに,ラベルなしサンプルにおける異なるモデルの出力間の一致分画は,モデルの性能を示す良い指標であることを示す。
最後に,本手法は,単純な合成データセットを用いて,新たな正および負のインスタンスを生成することができる。
関連論文リスト
- Robust Positive-Unlabeled Learning via Noise Negative Sample
Self-correction [48.929877651182885]
正および未ラベルのデータから学ぶことは、文学における正の未ラベル(PU)学習として知られている。
本研究では,人間の学習の性質を動機とした学習戦略を取り入れた,新しい堅牢なPU学習手法を提案する。
論文 参考訳(メタデータ) (2023-08-01T04:34:52Z) - Dist-PU: Positive-Unlabeled Learning from a Label Distribution
Perspective [89.5370481649529]
本稿では,PU学習のためのラベル分布視点を提案する。
そこで本研究では,予測型と基底型のラベル分布間のラベル分布の整合性を追求する。
提案手法の有効性を3つのベンチマークデータセットで検証した。
論文 参考訳(メタデータ) (2022-12-06T07:38:29Z) - Learning From Positive and Unlabeled Data Using Observer-GAN [0.0]
正・未ラベルデータ(A.K.A. PU学習)から学習することの問題は、二項分類(正・負)において研究されている。
GAN(Generative Adversarial Networks)は、教師あり学習が分類タスクにおいて最先端の精度を持つという利点を生かして、教師あり設定に問題を還元するために使用されている。
論文 参考訳(メタデータ) (2022-08-26T07:35:28Z) - Incorporating Semi-Supervised and Positive-Unlabeled Learning for
Boosting Full Reference Image Quality Assessment [73.61888777504377]
フル参照(FR)画像品質評価(IQA)は、その知覚的差異をプリズム品質基準で測定することにより、歪み画像の視覚的品質を評価する。
ラベルなしデータは、画像劣化または復元プロセスから容易に収集することができ、ラベルなしのトレーニングデータを利用してFR-IQA性能を高めることを奨励する。
本稿では, 半教師付き, 正の未ラベル学習(PU)を用いて, ラベルなしデータを活用し, オフレーヤの悪影響を軽減することを提案する。
論文 参考訳(メタデータ) (2022-04-19T09:10:06Z) - Adaptive Positive-Unlabelled Learning via Markov Diffusion [0.0]
Positive-Unlabelled (PU) 学習は、正のインスタンスのセットのみをラベル付けする機械学習環境である。
このアルゴリズムの主な目的は、元来問題のない正のインスタンスを含む可能性のあるインスタンスの集合を特定することである。
論文 参考訳(メタデータ) (2021-08-13T10:25:47Z) - A Novel Perspective for Positive-Unlabeled Learning via Noisy Labels [49.990938653249415]
本研究では,初期疑似ラベルを雑音ラベルデータとして用いる非ラベルデータに割り当て,雑音ラベルデータを用いて深層ニューラルネットワークを訓練する手法を提案する。
実験の結果,提案手法は,いくつかのベンチマークデータセットにおいて,最先端の手法よりも有意に優れていた。
論文 参考訳(メタデータ) (2021-03-08T11:46:02Z) - Learning from Positive and Unlabeled Data with Arbitrary Positive Shift [11.663072799764542]
本稿では,未ラベルデータに対して任意の非表現陽性データであってもPU学習が可能であることを示す。
これを統計的に一貫した2つの手法に統合し、任意の正のバイアスに対処する。
実験により,多数の実世界のデータセットにまたがる手法の有効性が示された。
論文 参考訳(メタデータ) (2020-02-24T13:53:22Z) - Learning with Out-of-Distribution Data for Audio Classification [60.48251022280506]
我々は,OODインスタンスを破棄するよりも,特定のOODインスタンスを検出・復号化することで,学習に肯定的な影響を及ぼすことを示す。
提案手法は,畳み込みニューラルネットワークの性能を著しく向上させる。
論文 参考訳(メタデータ) (2020-02-11T21:08:06Z) - On Positive-Unlabeled Classification in GAN [130.43248168149432]
本稿では,標準GANに対する肯定的かつ未ラベルの分類問題を定義する。
その後、GANにおける差別者の訓練を安定させる新しい手法が導かれる。
論文 参考訳(メタデータ) (2020-02-04T05:59:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。