論文の概要: Formal Models of Active Learning from Contrastive Examples
- arxiv url: http://arxiv.org/abs/2506.15893v1
- Date: Wed, 18 Jun 2025 21:32:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-23 19:00:04.86598
- Title: Formal Models of Active Learning from Contrastive Examples
- Title(参考訳): コントラスト的事例からのアクティブラーニングの形式モデル
- Authors: Farnam Mansouri, Hans U. Simon, Adish Singla, Yuxin Chen, Sandra Zilles,
- Abstract要約: 本稿では,様々な種類のコントラスト的事例が能動的学習者に与える影響を正式に研究する理論的枠組みを提案する。
興味深いことに、対照的な例から学ぶことと、自己指向学習の古典的なモデルとの関連性を明らかにする。
- 参考スコア(独自算出の注目度): 28.178484347394868
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning can greatly benefit from providing learning algorithms with pairs of contrastive training examples -- typically pairs of instances that differ only slightly, yet have different class labels. Intuitively, the difference in the instances helps explain the difference in the class labels. This paper proposes a theoretical framework in which the effect of various types of contrastive examples on active learners is studied formally. The focus is on the sample complexity of learning concept classes and how it is influenced by the choice of contrastive examples. We illustrate our results with geometric concept classes and classes of Boolean functions. Interestingly, we reveal a connection between learning from contrastive examples and the classical model of self-directed learning.
- Abstract(参考訳): 機械学習は、対照的なトレーニング例のペア(典型的にはわずかに異なるが、異なるクラスラベルを持つインスタンスのペア)で学習アルゴリズムを提供することで、大きな恩恵を受けることができる。
直感的には、インスタンスの違いはクラスラベルの違いを説明するのに役立つ。
本稿では,様々な種類のコントラスト的事例が能動的学習者に与える影響を正式に研究する理論的枠組みを提案する。
その焦点は、学習概念クラスにおけるサンプルの複雑さと、対照的な例の選択によってどのように影響されるかである。
結果について,幾何学的概念クラスとブール関数のクラスで説明する。
興味深いことに、対照的な例から学ぶことと、自己指向学習の古典的なモデルとの関連性を明らかにする。
関連論文リスト
- Weakly-Supervised Contrastive Learning for Imprecise Class Labels [50.57424331797865]
正対と負対を定義するために「連続的意味的類似性」の概念を導入する。
弱教師付きコントラスト学習のためのグラフ理論フレームワークを提案する。
我々のフレームワークは非常に多用途であり、多くの弱い教師付き学習シナリオに適用できる。
論文 参考訳(メタデータ) (2025-05-28T06:50:40Z) - Rethinking Positive Pairs in Contrastive Learning [19.149235307036324]
SimLAPは任意のペアから視覚表現を学ぶためのフレームワークである。
観察の動機は、任意のクラスに対して意味的に異なるサンプルが類似性を示す部分空間が存在することである。
この現象は、任意のサンプルの類似性を最適化し、同時に可能な部分空間を学習する新しい学習方法に利用することができる。
論文 参考訳(メタデータ) (2024-10-23T18:07:18Z) - Preview-based Category Contrastive Learning for Knowledge Distillation [53.551002781828146]
知識蒸留(PCKD)のための新しい予見型カテゴリーコントラスト学習法を提案する。
まず、インスタンスレベルの特徴対応と、インスタンスの特徴とカテゴリ中心の関係の両方の構造的知識を蒸留する。
カテゴリ表現を明示的に最適化し、インスタンスとカテゴリの表現を明確に関連付けることができる。
論文 参考訳(メタデータ) (2024-10-18T03:31:00Z) - Learning by Examples Based on Multi-level Optimization [12.317568257671427]
我々はLBE(Learning By Examples)と呼ばれる新しい学習手法を提案する。
提案手法では,クエリサンプルに類似したトレーニングサンプルの集合を自動的に検索し,検索したサンプルのクラスラベルを用いてクエリサンプルのラベルを予測する。
様々なベンチマークにおいて,教師付き学習と少数ショット学習の両方において,本手法の有効性を実証する実験を行った。
論文 参考訳(メタデータ) (2021-09-22T16:33:06Z) - Not All Negatives are Equal: Label-Aware Contrastive Loss for
Fine-grained Text Classification [0.0]
2つの細粒度テキスト分類タスクにおいて、事前訓練された言語モデルの対照的な微調整を解析する。
クラス関係を比較対象関数に適応的に組み込んで、正と負の異なる評価を支援する。
ラベルを意識したContrastive Lossは,従来のコントラスト手法よりも優れていた。
論文 参考訳(メタデータ) (2021-09-12T04:19:17Z) - Open-Set Representation Learning through Combinatorial Embedding [62.05670732352456]
ラベル付きクラスとラベルなしクラスの両方の例に基づく表現学習を通じて、データセットにおける新しい概念を識別することに興味がある。
異種ラベル空間上の複数の教師付きメタクラス分類器によって与えられる構成知識を用いて、自然に未知のクラス内のサンプルをクラスタリングする学習手法を提案する。
提案アルゴリズムは,未確認クラスの識別性の向上と,新しいクラスに一般化可能な既知のクラス表現の学習を併用して,新しい概念を探索する。
論文 参考訳(メタデータ) (2021-06-29T11:51:57Z) - Investigating the Role of Negatives in Contrastive Representation
Learning [59.30700308648194]
ノイズコントラスト学習は教師なし表現学習の一般的な手法である。
我々は、これらのパラメータの1つの役割の曖昧さ、すなわち負の例の数に焦点をあてる。
結果が我々の理論と広く一致しているのに対して、我々の視覚実験はより悪質であり、性能は時々負の数に敏感である。
論文 参考訳(メタデータ) (2021-06-18T06:44:16Z) - Flexible Few-Shot Learning with Contextual Similarity [33.6420962942815]
タスクコンテキストに応じて例間の類似性がエピソードごとに変化するような現実的な設定を考える。
この柔軟な数ショットシナリオのための新しいベンチマークデータセットを定義します。
私たちのアプローチは、新しい柔軟な数ショット学習ベンチマークで強く機能します。
論文 参考訳(メタデータ) (2020-12-10T18:58:02Z) - Learning What Makes a Difference from Counterfactual Examples and
Gradient Supervision [57.14468881854616]
ニューラルネットワークの一般化能力を改善するための補助的学習目標を提案する。
我々は、異なるラベルを持つ最小差の例のペア、すなわち反ファクトまたはコントラストの例を使用し、タスクの根底にある因果構造を示す信号を与える。
このテクニックで訓練されたモデルは、配布外テストセットのパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2020-04-20T02:47:49Z) - Rethinking Class Relations: Absolute-relative Supervised and
Unsupervised Few-shot Learning [157.62595449130973]
本稿では,現在の数ショット学習法における単純化型クラスモデリングの基本的問題について検討する。
本稿では,ラベル情報をフル活用して画像表現を洗練するための,絶対相対学習パラダイムを提案する。
論文 参考訳(メタデータ) (2020-01-12T12:25:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。