論文の概要: A Probabilistic Model for Discriminative and Neuro-Symbolic
Semi-Supervised Learning
- arxiv url: http://arxiv.org/abs/2006.05896v4
- Date: Mon, 31 May 2021 12:20:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-23 05:05:23.870517
- Title: A Probabilistic Model for Discriminative and Neuro-Symbolic
Semi-Supervised Learning
- Title(参考訳): 認知的および神経シンボリック半教師付き学習のための確率論的モデル
- Authors: Carl Allen, Ivana Bala\v{z}evi\'c, Timothy Hospedales
- Abstract要約: 本稿では、その古典的な生成過程を反映した識別的SSLの確率モデルを提案する。
我々は、よく知られたSSLメソッドを事前の近似として解釈でき、改善可能であることを示す。
我々は識別モデルをニューロシンボリックSSLに拡張し、上記のルールを直接関連付けることによって、ラベルの特徴が論理規則を満たすようにした。
- 参考スコア(独自算出の注目度): 6.789370732159177
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Much progress has been made in semi-supervised learning (SSL) by combining
methods that exploit different aspects of the data distribution, e.g.
consistency regularisation relies on properties of $p(x)$, whereas entropy
minimisation pertains to the label distribution $p(y|x)$. Focusing on the
latter, we present a probabilistic model for discriminative SSL, that mirrors
its classical generative counterpart. Under the assumption $y|x$ is
deterministic, the prior over latent variables becomes discrete. We show that
several well-known SSL methods can be interpreted as approximating this prior,
and can be improved upon. We extend the discriminative model to neuro-symbolic
SSL, where label features satisfy logical rules, by showing such rules relate
directly to the above prior, thus justifying a family of methods that link
statistical learning and logical reasoning, and unifying them with regular SSL.
- Abstract(参考訳): 例えば、一貫性の規則化は$p(x)$のプロパティに依存するが、エントロピーの最小化はラベルの分布である$p(y|x)$に依存する。
後者に焦点をあてて、従来の世代別SSLを反映した差別的SSLの確率モデルを提案する。
仮定では$y|x$ は決定論的であり、前述の潜伏変数は離散となる。
我々は、よく知られたSSLメソッドを事前の近似として解釈でき、改善可能であることを示す。
識別モデルをニューロシンボリックSSLに拡張し、上記のルールを直接関連付けることによって、ラベルの特徴が論理的ルールを満たすようにし、統計的学習と論理的推論を結びつける手法のファミリーを正当化し、それらを通常のSSLと統一する。
関連論文リスト
- Explicit Mutual Information Maximization for Self-Supervised Learning [23.41734709882332]
理論的には、相互情報(MIM)は自己教師型学習(SSL)の最適基準である
この研究は、MIの明示的な性質に基づいて、一般的な分布仮定の下で、MIがSSLに適用可能であることを示している。
2次統計量のみを用いてMIM基準に基づく損失関数を導出する。
論文 参考訳(メタデータ) (2024-09-07T07:44:33Z) - Semi-Supervised Sparse Gaussian Classification: Provable Benefits of Unlabeled Data [6.812609988733991]
高次元ガウス分類のためのSSLについて検討する。
正確な特徴選択のための情報理論の下限を解析する。
理論的解析を補完するシミュレーションを提案する。
論文 参考訳(メタデータ) (2024-09-05T08:21:05Z) - A Closer Look at Benchmarking Self-Supervised Pre-training with Image Classification [51.35500308126506]
自己教師付き学習(SSL)は、データ自体が監視を提供する機械学習アプローチであり、外部ラベルの必要性を排除している。
SSLの分類に基づく評価プロトコルがどのように相関し、異なるデータセットのダウンストリーム性能を予測するかを検討する。
論文 参考訳(メタデータ) (2024-07-16T23:17:36Z) - Rebalanced Zero-shot Learning [18.52913434532522]
Zero-shot Learning (ZSL) は、トレーニング中にサンプルがゼロの未確認クラスを特定することを目的としている。
ZSLに不均衡学習フレームワークを導入する。
次に、Re- Balanced Mean-Squared Error (ReMSE)と呼ばれる再重み付き損失を提案する。
論文 参考訳(メタデータ) (2022-10-13T13:43:40Z) - OpenLDN: Learning to Discover Novel Classes for Open-World
Semi-Supervised Learning [110.40285771431687]
半教師付き学習(SSL)は、教師付き学習のアノテーションボトルネックに対処する主要なアプローチの1つである。
最近のSSLメソッドは、ラベルなしデータの大規模なリポジトリを有効活用して、ラベル付きデータの小さなセットに依存しながら、パフォーマンスを向上させることができる。
この研究は、ペアワイズ類似度損失を利用して新しいクラスを発見するOpenLDNを導入している。
論文 参考訳(メタデータ) (2022-07-05T18:51:05Z) - A Strong Baseline for Semi-Supervised Incremental Few-Shot Learning [54.617688468341704]
少ないショット学習は、限られたトレーニングサンプルを持つ新しいクラスに一般化するモデルを学ぶことを目的としている。
本研究では,(1)信頼できない擬似ラベルによる基本クラスと新クラスのあいまいさを緩和する高度に設計されたメタトレーニングアルゴリズム,(2)ラベルの少ないデータとラベルなしデータを用いて基礎知識を保ちながら,新クラスの識別的特徴を学習するモデル適応機構を提案する。
論文 参考訳(メタデータ) (2021-10-21T13:25:52Z) - Self-supervised Learning is More Robust to Dataset Imbalance [65.84339596595383]
データセット不均衡下での自己教師型学習について検討する。
既製の自己教師型表現は、教師型表現よりもクラス不均衡に対してすでに堅牢である。
我々は、不均衡なデータセット上でSSL表現品質を一貫して改善する、再重み付け正規化手法を考案した。
論文 参考訳(メタデータ) (2021-10-11T06:29:56Z) - On Data-Augmentation and Consistency-Based Semi-Supervised Learning [77.57285768500225]
最近提案された整合性に基づく半教師付き学習(SSL)手法は,複数のSSLタスクにおいて最先端技術である。
これらの進歩にもかかわらず、これらの手法の理解はまだ比較的限られている。
論文 参考訳(メタデータ) (2021-01-18T10:12:31Z) - Matching Distributions via Optimal Transport for Semi-Supervised
Learning [31.533832244923843]
SSL(Semi-Supervised Learning)アプローチは、ラベルのないデータを使用する上で、影響力のあるフレームワークである。
本稿では、離散的経験的確率測度間の類似性の指標として最適輸送(OT)手法を採用する新しい手法を提案する。
提案手法を標準データセット上で,最先端のSSLアルゴリズムを用いて評価し,SSLアルゴリズムの優位性と有効性を示す。
論文 参考訳(メタデータ) (2020-12-04T11:15:14Z) - Semi-supervised learning objectives as log-likelihoods in a generative
model of data curation [32.45282187405337]
データキュレーションの生成モデルにおいて、SSLの目的をログライクな形式として定式化する。
おもちゃのデータにベイジアンSSLの証明を与える。
論文 参考訳(メタデータ) (2020-08-13T13:50:27Z) - Distribution Aligning Refinery of Pseudo-label for Imbalanced
Semi-supervised Learning [126.31716228319902]
Pseudo-label (DARP) アルゴリズムの分散アライメント・リファナリーを開発する。
DARPは最先端のSSLスキームと有効かつ効率的に互換性があることを示す。
論文 参考訳(メタデータ) (2020-07-17T09:16:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。