論文の概要: Minimal Learning Machine for Multi-Label Learning
- arxiv url: http://arxiv.org/abs/2305.05518v1
- Date: Tue, 9 May 2023 15:16:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-10 12:20:03.422038
- Title: Minimal Learning Machine for Multi-Label Learning
- Title(参考訳): マルチラベル学習のための最小学習マシン
- Authors: Joonas H\"am\"al\"ainen, Amauri Souza, C\'esar L. C. Mattos, Jo\~ao P.
P. Gomes, Tommi K\"arkk\"ainen
- Abstract要約: 最小限の学習マシンである距離に基づく教師付き手法は、データから予測モデルを構築する。
本稿では,この手法とコアコンポーネントである距離マッピングがマルチラベル学習にどのように適用できるかを評価する。
提案手法は,距離マッピングと逆距離重み付けを組み合わせたものである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Distance-based supervised method, the minimal learning machine, constructs a
predictive model from data by learning a mapping between input and output
distance matrices. In this paper, we propose methods and evaluate how this
technique and its core component, the distance mapping, can be adapted to
multi-label learning. The proposed approach is based on combining the distance
mapping with an inverse distance weighting. Although the proposal is one of the
simplest methods in the multi-label learning literature, it achieves
state-of-the-art performance for small to moderate-sized multi-label learning
problems. Besides its simplicity, the proposed method is fully deterministic
and its hyper-parameter can be selected via ranking loss-based statistic which
has a closed form, thus avoiding conventional cross-validation-based
hyper-parameter tuning. In addition, due to its simple linear distance
mapping-based construction, we demonstrate that the proposed method can assess
predictions' uncertainty for multi-label classification, which is a valuable
capability for data-centric machine learning pipelines.
- Abstract(参考訳): 距離に基づく教師付き手法であるminimum learning machineは,入力距離行列と出力距離行列のマッピングを学習し,データから予測モデルを構築する。
本稿では,本手法とそのコアコンポーネントである距離マッピングをマルチラベル学習に適用する方法について提案し,評価する。
提案手法は,距離マッピングと逆距離重み付けを組み合わせたものである。
本提案は,マルチレーベル学習文学における最も単純な手法の一つであるが,小中小のマルチレーベル学習問題に対して,最先端のパフォーマンスを実現する。
その単純さに加えて,提案手法は完全に決定論的であり,従来のクロスバリデーションに基づくハイパーパラメータチューニングを回避するために,クローズド形式の損失ベース統計量によって選択することができる。
さらに,その単純な線形距離マッピングに基づく構成により,データ中心の機械学習パイプラインに有用な多ラベル分類のための予測の不確実性を評価することができることを示す。
関連論文リスト
- Dual-Decoupling Learning and Metric-Adaptive Thresholding for Semi-Supervised Multi-Label Learning [81.83013974171364]
半教師付きマルチラベル学習(SSMLL)は、正確なマルチラベルアノテーションを収集するコストを削減するために、ラベルのないデータを活用する強力なフレームワークである。
半教師付き学習とは異なり、インスタンスに含まれる複数のセマンティクスのため、SSMLLの擬似ラベルとして最も確率の高いラベルを選択することはできない。
本稿では,高品質な擬似ラベルを生成するための二重パースペクティブ手法を提案する。
論文 参考訳(メタデータ) (2024-07-26T09:33:53Z) - Querying Easily Flip-flopped Samples for Deep Active Learning [63.62397322172216]
アクティブラーニング(英: Active Learning)は、ラベルのないデータを戦略的に選択してクエリすることで、モデルの性能を向上させることを目的とした機械学習パラダイムである。
効果的な選択戦略の1つはモデルの予測の不確実性に基づくもので、サンプルがどの程度情報的であるかの尺度として解釈できる。
本稿では,予測されたラベルの不一致の最小確率として,最小不一致距離(LDM)を提案する。
論文 参考訳(メタデータ) (2024-01-18T08:12:23Z) - Minimally Supervised Learning using Topological Projections in
Self-Organizing Maps [55.31182147885694]
自己組織化マップ(SOM)におけるトポロジカルプロジェクションに基づく半教師付き学習手法を提案する。
提案手法は,まずラベル付きデータ上でSOMを訓練し,最小限のラベル付きデータポイントをキーベストマッチングユニット(BMU)に割り当てる。
提案した最小教師付きモデルが従来の回帰手法を大幅に上回ることを示す。
論文 参考訳(メタデータ) (2024-01-12T22:51:48Z) - Unsupervised Visual Representation Learning via Mutual Information
Regularized Assignment [31.00769817116771]
情報に触発された教師なし表現学習のための擬似ラベルアルゴリズムを提案する。
MIRAは、線形/k-NN評価や転送学習など、さまざまな下流タスクで最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2022-11-04T06:49:42Z) - An Embarrassingly Simple Approach to Semi-Supervised Few-Shot Learning [58.59343434538218]
間接学習の観点から、ラベルなしデータの正負の擬似ラベルを正確に予測するための、単純だが非常に効果的な手法を提案する。
私たちのアプローチは、オフザシェルフ操作のみを使用することで、ほんの数行のコードで実装できます。
論文 参考訳(メタデータ) (2022-09-28T02:11:34Z) - Bayesian Evidential Learning for Few-Shot Classification [22.46281648187903]
Few-Shot 分類は、非常に限定されたラベル付きサンプルをベースクラスから新しいクラスに一般化することを目的としている。
最先端のソリューションは、サンプル間の距離を計算するための良い計量と表現空間を見つけることを含む。
有望な精度性能にもかかわらず、計量ベースのFSC手法の不確実性を効果的にモデル化する方法は依然として課題である。
論文 参考訳(メタデータ) (2022-07-19T03:58:00Z) - Stabilizing Q-learning with Linear Architectures for Provably Efficient
Learning [53.17258888552998]
本研究では,線形関数近似を用いた基本的な$Q$-learningプロトコルの探索変種を提案する。
このアルゴリズムの性能は,新しい近似誤差というより寛容な概念の下で,非常に優雅に低下することを示す。
論文 参考訳(メタデータ) (2022-06-01T23:26:51Z) - Proxy Network for Few Shot Learning [9.529264466445236]
本稿では,メタラーニングのアーキテクチャの下で,プロキシネットワークと呼ばれる数ショットの学習アルゴリズムを提案する。
CUB と mini-ImageNet のデータセットを 1-shot-5-way と 5-shot-5-way のシナリオで実験する。
論文 参考訳(メタデータ) (2020-09-09T13:28:07Z) - Prototypical Contrastive Learning of Unsupervised Representations [171.3046900127166]
原型コントラスト学習(Prototypeal Contrastive Learning, PCL)は、教師なし表現学習法である。
PCLは暗黙的にデータのセマンティック構造を学習された埋め込み空間にエンコードする。
PCLは、複数のベンチマークで最先端のインスタンスワイド・コントラスト学習法より優れている。
論文 参考訳(メタデータ) (2020-05-11T09:53:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。