論文の概要: Discriminative, Generative and Self-Supervised Approaches for
Target-Agnostic Learning
- arxiv url: http://arxiv.org/abs/2011.06428v1
- Date: Thu, 12 Nov 2020 15:03:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-26 07:25:28.113502
- Title: Discriminative, Generative and Self-Supervised Approaches for
Target-Agnostic Learning
- Title(参考訳): 目標非依存学習のための識別的・生成的・自己監督的アプローチ
- Authors: Yuan Jin, Wray Buntine, Francois Petitjean, Geoffrey I. Webb
- Abstract要約: 生成的および自己教師型学習モデルは、そのタスクでうまく機能することが示されている。
擬似相似理論の導出した定理は、結合分布モデルの推定に関係があることも示している。
- 参考スコア(独自算出の注目度): 8.666667951130892
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Supervised learning, characterized by both discriminative and generative
learning, seeks to predict the values of single (or sometimes multiple)
predefined target attributes based on a predefined set of predictor attributes.
For applications where the information available and predictions to be made may
vary from instance to instance, we propose the task of target-agnostic learning
where arbitrary disjoint sets of attributes can be used for each of predictors
and targets for each to-be-predicted instance. For this task, we survey a wide
range of techniques available for handling missing values, self-supervised
training and pseudo-likelihood training, and adapt them to a suite of
algorithms that are suitable for the task. We conduct extensive experiments on
this suite of algorithms on a large collection of categorical, continuous and
discretized datasets, and report their performance in terms of both
classification and regression errors. We also report the training and
prediction time of these algorithms when handling large-scale datasets. Both
generative and self-supervised learning models are shown to perform well at the
task, although their characteristics towards the different types of data are
quite different. Nevertheless, our derived theorem for the pseudo-likelihood
theory also shows that they are related for inferring a joint distribution
model based on the pseudo-likelihood training.
- Abstract(参考訳): 教師付き学習は、識別学習と生成学習の両方が特徴であり、事前定義された予測属性のセットに基づいて、単一の(あるいは、時には複数の)対象属性の値を予測する。
利用可能な情報や予測がインスタンスごとに異なる可能性のあるアプリケーションでは、to-be-predictedインスタンスの各予測子とターゲットに対して任意の属性セットを使用できる、ターゲット非依存学習のタスクを提案する。
そこで本研究では,不足値の処理,自己教師付きトレーニング,擬似類似トレーニング,タスクに適したアルゴリズム群への適応など,幅広い手法を調査した。
分類的,連続的,離散化されたデータセットの集合に対して,この一連のアルゴリズムを広範囲に実験し,その性能を分類と回帰誤差の両方の観点から報告した。
また、大規模データセットを扱う際のアルゴリズムのトレーニングと予測時間についても報告する。
生成学習モデルと自己教師型学習モデルの両方がタスクにおいて良好に機能することが示されているが、異なるタイプのデータに対する特性は全く異なる。
それにもかかわらず、擬似類似性理論の導出定理はまた、擬似類似性理論に基づく共同分布モデルの推定に関係があることも示している。
関連論文リスト
- Ranking and Combining Latent Structured Predictive Scores without Labeled Data [2.5064967708371553]
本稿では,新しい教師なしアンサンブル学習モデル(SUEL)を提案する。
連続的な予測スコアを持つ予測器のセット間の依存関係を利用して、ラベル付きデータなしで予測器をランク付けし、それらをアンサンブルされたスコアに重み付けする。
提案手法の有効性は、シミュレーション研究とリスク遺伝子発見の現実的応用の両方を通じて厳密に評価されている。
論文 参考訳(メタデータ) (2024-08-14T20:14:42Z) - Improving Adaptive Conformal Prediction Using Self-Supervised Learning [72.2614468437919]
我々は、既存の予測モデルの上に自己教師付きプレテキストタスクを持つ補助モデルを訓練し、自己教師付きエラーを付加的な特徴として用いて、非整合性スコアを推定する。
合成データと実データの両方を用いて、効率(幅)、欠陥、共形予測間隔の超過といった付加情報の利点を実証的に実証する。
論文 参考訳(メタデータ) (2023-02-23T18:57:14Z) - An Additive Instance-Wise Approach to Multi-class Model Interpretation [53.87578024052922]
解釈可能な機械学習は、ブラックボックスシステムの特定の予測を駆動する要因に関する洞察を提供する。
既存の手法は主に、局所的な加法的あるいはインスタンス的なアプローチに従う説明的入力特徴の選択に重点を置いている。
本研究は,両手法の長所を生かし,複数の対象クラスに対する局所的な説明を同時に学習するためのグローバルフレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-07T06:50:27Z) - Prediction of Dilatory Behavior in eLearning: A Comparison of Multiple
Machine Learning Models [0.2963240482383777]
タスクの不合理な遅延である Procrastination は、オンライン学習においてよくある出来事である。
このような予測に焦点を当てた研究はほとんどない。
様々な種類の予測器と様々な手法の予測性能の比較を含む研究は、事実上存在しない。
論文 参考訳(メタデータ) (2022-06-30T07:24:08Z) - Masked prediction tasks: a parameter identifiability view [49.533046139235466]
マスク付きトークンの予測に広く用いられている自己教師型学習手法に着目する。
いくつかの予測タスクは識別可能性をもたらすが、他のタスクはそうではない。
論文 参考訳(メタデータ) (2022-02-18T17:09:32Z) - Leveraging Unlabeled Data to Predict Out-of-Distribution Performance [63.740181251997306]
実世界の機械学習デプロイメントは、ソース(トレーニング)とターゲット(テスト)ディストリビューションのミスマッチによって特徴づけられる。
本研究では,ラベル付きソースデータとラベルなしターゲットデータのみを用いて,対象領域の精度を予測する手法を検討する。
本稿では,モデルの信頼度をしきい値として学習し,精度をラベルなし例のごく一部として予測する実践的手法である平均閾値保持信頼度(ATC)を提案する。
論文 参考訳(メタデータ) (2022-01-11T23:01:12Z) - Selecting the suitable resampling strategy for imbalanced data
classification regarding dataset properties [62.997667081978825]
医学、情報検索、サイバーセキュリティ、ソーシャルメディアなどの多くのアプリケーションドメインでは、分類モデルの導入に使用されるデータセットは、各クラスのインスタンスの不平等な分布を持つことが多い。
この状況は不均衡データ分類と呼ばれ、少数民族の例では予測性能が低い。
オーバーサンプリングとアンダーサンプリングの技術は、各クラスの例の数とバランスをとることでこの問題に対処する、よく知られた戦略である。
論文 参考訳(メタデータ) (2021-12-15T18:56:39Z) - Meta-learning One-class Classifiers with Eigenvalue Solvers for
Supervised Anomaly Detection [55.888835686183995]
教師付き異常検出のためのニューラルネットワークに基づくメタラーニング手法を提案する。
提案手法は,既存の異常検出法や少数ショット学習法よりも優れた性能を実現することを実験的に実証した。
論文 参考訳(メタデータ) (2021-03-01T01:43:04Z) - Learning from Incomplete Features by Simultaneous Training of Neural
Networks and Sparse Coding [24.3769047873156]
本稿では,不完全な特徴を持つデータセット上で分類器を訓練する問題に対処する。
私たちは、各データインスタンスで異なる機能のサブセット(ランダムまたは構造化)が利用できると仮定します。
新しい教師付き学習法が開発され、サンプルあたりの機能のサブセットのみを使用して、一般的な分類器を訓練する。
論文 参考訳(メタデータ) (2020-11-28T02:20:39Z) - Instance-Based Learning of Span Representations: A Case Study through
Named Entity Recognition [48.06319154279427]
本研究では,スパン間の類似性を学習するインスタンスベースの学習手法を提案する。
本手法では,性能を犠牲にすることなく高い解釈性を持つモデルを構築することができる。
論文 参考訳(メタデータ) (2020-04-29T23:32:42Z) - Sampling Prediction-Matching Examples in Neural Networks: A
Probabilistic Programming Approach [9.978961706999833]
本稿では,確率的プログラミングを用いた分類器の予測レベルセットの探索について考察する。
我々は,予測器が同一の特定の予測信頼度を持つ例のセットとして,予測レベルを定義した。
合成データセットとMNISTを用いた実験により,本手法を実証する。
論文 参考訳(メタデータ) (2020-01-09T15:57:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。