論文の概要: On tuning a mean-field model for semi-supervised classification
- arxiv url: http://arxiv.org/abs/2204.13519v1
- Date: Thu, 28 Apr 2022 14:11:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-29 14:50:20.435578
- Title: On tuning a mean-field model for semi-supervised classification
- Title(参考訳): 半教師付き分類のための平均場モデルのチューニングについて
- Authors: Em\'ilio Bergamim and Fabricio Breve
- Abstract要約: ラベル付きデータとラベルなしデータの両方が利用可能なシナリオでの学習能力のため、半教師付き学習(SSL)は興味深い研究領域になっている。
分類結果が$beta$に依存するかを調べ、最適位相が利用可能なラベル付きデータの量に大きく依存していることを確認する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Semi-supervised learning (SSL) has become an interesting research area due to
its capacity for learning in scenarios where both labeled and unlabeled data
are available. In this work, we focus on the task of transduction - when the
objective is to label all data presented to the learner - with a mean-field
approximation to the Potts model. Aiming at this particular task we study how
classification results depend on $\beta$ and find that the optimal phase
depends highly on the amount of labeled data available. In the same study, we
also observe that more stable classifications regarding small fluctuations in
$\beta$ are related to configurations of high probability and propose a tuning
approach based on such observation. This method relies on a novel parameter
$\gamma$ and we then evaluate two different values of the said quantity in
comparison with classical methods in the field. This evaluation is conducted by
changing the amount of labeled data available and the number of nearest
neighbors in the similarity graph. Empirical results show that the tuning
method is effective and allows NMF to outperform other approaches in datasets
with fewer classes. In addition, one of the chosen values for $\gamma$ also
leads to results that are more resilient to changes in the number of neighbors,
which might be of interest to practitioners in the field of SSL.
- Abstract(参考訳): semi-supervised learning (ssl) はラベル付きデータとラベルなしデータの両方が利用できるシナリオで学習する能力があるため、興味深い研究領域となっている。
本研究では,学習者に提示されるすべてのデータをポッツモデルに平均場近似でラベル付けすることを目的としたトランスダクションのタスクに焦点をあてる。
このタスクを目標として、分類結果が$\beta$ に依存し、最適なフェーズが利用可能なラベル付きデータの量に大きく依存していることを確認する。
同じ研究で、$\beta$の小さなゆらぎに関するより安定した分類が高い確率の構成と関連していることが観察され、そのような観測に基づくチューニングアプローチを提案する。
この方法は、新しいパラメータ$\gamma$に依存し、フィールドの古典的手法と比較して、その量の2つの異なる値を評価する。
この評価は、利用可能なラベル付きデータ量と類似度グラフ内の最寄りの近傍の数を変更することにより行われる。
実験的な結果から,NMFはより少ないクラスを持つデータセットにおいて,他の手法よりも優れていることがわかった。
さらに、$\gamma$で選択された値の1つが、SSLの分野の実践者にとって関心のある隣人の数の変化に対してより回復力のある結果をもたらす。
関連論文リスト
- Mitigating covariate shift in non-colocated data with learned parameter priors [0.0]
textitFragmentation-induced co-shift remediation(FIcsR$)は、フラグメントの共変量分布と標準クロスバリデーションベースラインとの$f$-divergenceを最小限にする。
複数のデータクラス、40ドル以上のデータセット、および複数のシーケンス長にわたってバッチ化されたデータに対して、広範な分類実験を行います。
バッチとフォールド・オブ・ザ・アーティファクトに対する精度は、それぞれ5%以上と10%以上向上している。
論文 参考訳(メタデータ) (2024-11-10T15:48:29Z) - A Closer Look at Benchmarking Self-Supervised Pre-training with Image Classification [51.35500308126506]
自己教師付き学習(SSL)は、データ自体が監視を提供する機械学習アプローチであり、外部ラベルの必要性を排除している。
SSLの分類に基づく評価プロトコルがどのように相関し、異なるデータセットのダウンストリーム性能を予測するかを検討する。
論文 参考訳(メタデータ) (2024-07-16T23:17:36Z) - Co-training for Low Resource Scientific Natural Language Inference [65.37685198688538]
遠隔教師付きラベルに分類器のトレーニング力学に基づいて重みを割り当てる新しいコトレーニング手法を提案する。
予測された信頼度に対する任意のしきい値に基づいてサンプルをフィルタリングするのではなく、重要重みを割り当てることにより、自動ラベル付きデータの使用を最大化する。
提案手法は、遠隔監視ベースラインに対するマクロF1の1.5%の改善と、他の強力なSSLベースラインよりも大幅に改善されている。
論文 参考訳(メタデータ) (2024-06-20T18:35:47Z) - Preference Fine-Tuning of LLMs Should Leverage Suboptimal, On-Policy Data [102.16105233826917]
好みラベルからの学習は、微調整された大きな言語モデルにおいて重要な役割を果たす。
好みの微調整には、教師付き学習、オンライン強化学習(RL)、コントラスト学習など、いくつかの異なるアプローチがある。
論文 参考訳(メタデータ) (2024-04-22T17:20:18Z) - Benchmarking common uncertainty estimation methods with
histopathological images under domain shift and label noise [62.997667081978825]
リスクの高い環境では、深層学習モデルは不確実性を判断し、誤分類の可能性がかなり高い場合に入力を拒否しなければなりません。
我々は,全スライド画像の分類において,最もよく使われている不確実性と頑健さの厳密な評価を行う。
我々は一般的に,手法のアンサンブルが,ドメインシフトやラベルノイズに対するロバスト性の向上とともに,より良い不確実性評価につながることを観察する。
論文 参考訳(メタデータ) (2023-01-03T11:34:36Z) - Intra-class Adaptive Augmentation with Neighbor Correction for Deep
Metric Learning [99.14132861655223]
深層学習のためのクラス内適応拡張(IAA)フレームワークを提案する。
クラスごとのクラス内変動を合理的に推定し, 適応型合成試料を生成し, 硬質試料の採掘を支援する。
本手法は,検索性能の最先端手法を3%~6%向上させる。
論文 参考訳(メタデータ) (2022-11-29T14:52:38Z) - SimPLE: Similar Pseudo Label Exploitation for Semi-Supervised
Classification [24.386165255835063]
一般的な分類タスクの状況は、トレーニングに利用可能な大量のデータを持っているが、クラスラベルを持つのはごく一部である。
この文脈で、半監督トレーニングの目標は、大量のラベルのないデータからの情報を利用して分類精度を向上させることです。
本研究では,相互に類似した高信頼度ラベル付きデータ間の研究の少ない関係に焦点をあてた,教師なしの新たな目的を提案する。
提案したSimPLEアルゴリズムは,CIFAR-100およびMini-ImageNetにおける従来のアルゴリズムと比較して有意な性能向上を示した。
論文 参考訳(メタデータ) (2021-03-30T23:48:06Z) - Towards Model-Agnostic Post-Hoc Adjustment for Balancing Ranking
Fairness and Algorithm Utility [54.179859639868646]
Bipartiteランキングは、ラベル付きデータから正の個人よりも上位の個人をランク付けするスコアリング機能を学ぶことを目的としている。
学習したスコアリング機能が、異なる保護グループ間で体系的な格差を引き起こすのではないかという懸念が高まっている。
本稿では、二部構成のランキングシナリオにおいて、それらのバランスをとるためのモデル後処理フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-15T10:08:39Z) - Deep Active Learning for Biased Datasets via Fisher Kernel
Self-Supervision [5.352699766206807]
アクティブラーニング(AL)は、データ要求型ディープニューラルネットワーク(DNN)のラベル付け作業を最小化する
自己教師型フィッシャーカーネル(FK)を用いた特徴密度マッチングのための低複雑さ手法を提案する。
本手法は,MNIST,SVHN,ImageNetの分類において,処理の1/10しか必要とせず,最先端の手法よりも優れている。
論文 参考訳(メタデータ) (2020-03-01T03:56:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。