論文の概要: A Scalable Technique for Weak-Supervised Learning with Domain
Constraints
- arxiv url: http://arxiv.org/abs/2301.05253v1
- Date: Thu, 12 Jan 2023 19:04:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-16 14:06:15.005872
- Title: A Scalable Technique for Weak-Supervised Learning with Domain
Constraints
- Title(参考訳): ドメイン制約による弱改善学習のためのスケーラブルな手法
- Authors: Sudhir Agarwal, Anu Sreepathy, Lalla Mouatadid
- Abstract要約: ラベルなしデータの分類のためのニューラルネットワーク学習の制約として,記号的ドメイン知識を用いたスケーラブルなエンドツーエンドパイプラインを提案する。
我々は,MNIST画像分類問題において,トレーニング例が画像列とそれらの列で表される数字の総和で構成されている方法について検討した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a novel scalable end-to-end pipeline that uses symbolic domain
knowledge as constraints for learning a neural network for classifying
unlabeled data in a weak-supervised manner. Our approach is particularly
well-suited for settings where the data consists of distinct groups (classes)
that lends itself to clustering-friendly representation learning and the domain
constraints can be reformulated for use of efficient mathematical optimization
techniques by considering multiple training examples at once. We evaluate our
approach on a variant of the MNIST image classification problem where a
training example consists of image sequences and the sum of the numbers
represented by the sequences, and show that our approach scales significantly
better than previous approaches that rely on computing all constraint
satisfying combinations for each training example.
- Abstract(参考訳): 本稿では,ニューラルネットワークを学習するための制約として,記号的ドメイン知識を用いたスケーラブルなエンドツーエンドパイプラインを提案する。
このアプローチは,クラスタリングにやさしい表現学習に適した異なるグループ(クラス)で構成されたデータ構成に特に適しており,複数のトレーニング例を同時に考慮して効率的な数学的最適化手法を用いて,ドメイン制約を再構成することができる。
本手法は,画像列と数列で表される数の総和からなる学習例を用いて,mnist画像分類問題の変種に対するアプローチを評価し,各訓練例の組合せを満たした全ての制約を計算することに依存する従来のアプローチよりも大幅にスケールすることを示す。
関連論文リスト
- A Diffusion Model Framework for Unsupervised Neural Combinatorial Optimization [7.378582040635655]
現在のディープラーニングアプローチは、正確なサンプル確率を生み出す生成モデルに依存している。
この研究は、この制限を解除し、高度に表現力のある潜在変数モデルを採用する可能性を開放する手法を導入する。
我々は,データフリーなコンビネーション最適化におけるアプローチを実験的に検証し,幅広いベンチマーク問題に対して新しい最先端の手法を実現することを実証した。
論文 参考訳(メタデータ) (2024-06-03T17:55:02Z) - Large-scale Fully-Unsupervised Re-Identification [78.47108158030213]
大規模未ラベルデータから学ぶための2つの戦略を提案する。
第1の戦略は、近傍関係に違反することなく、それぞれのデータセットサイズを減らすために、局所的な近傍サンプリングを行う。
第2の戦略は、低時間上限の複雑さを持ち、メモリの複雑さを O(n2) から O(kn) に k n で還元する新しい再帰的手法を利用する。
論文 参考訳(メタデータ) (2023-07-26T16:19:19Z) - Stochastic Unrolled Federated Learning [85.6993263983062]
本稿では,UnRolled Federated Learning (SURF)を導入する。
提案手法は,この拡張における2つの課題,すなわち,非学習者へのデータセット全体の供給の必要性と,フェデレート学習の分散的性質に対処する。
論文 参考訳(メタデータ) (2023-05-24T17:26:22Z) - Unsupervised Visual Representation Learning via Mutual Information
Regularized Assignment [31.00769817116771]
情報に触発された教師なし表現学習のための擬似ラベルアルゴリズムを提案する。
MIRAは、線形/k-NN評価や転送学習など、さまざまな下流タスクで最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2022-11-04T06:49:42Z) - Rethinking Clustering-Based Pseudo-Labeling for Unsupervised
Meta-Learning [146.11600461034746]
教師なしメタラーニングのメソッドであるCACTUsは、擬似ラベル付きクラスタリングベースのアプローチである。
このアプローチはモデルに依存しないため、教師付きアルゴリズムと組み合わせてラベルのないデータから学習することができる。
このことの核となる理由は、埋め込み空間においてクラスタリングに優しい性質が欠如していることである。
論文 参考訳(メタデータ) (2022-09-27T19:04:36Z) - How Fine-Tuning Allows for Effective Meta-Learning [50.17896588738377]
MAMLライクなアルゴリズムから派生した表現を解析するための理論的フレームワークを提案する。
我々は,勾配降下による微調整により得られる最良予測器のリスク境界を提示し,アルゴリズムが共有構造を有効活用できることを実証する。
この分離の結果、マイニングベースのメソッド、例えばmamlは、少数ショット学習における"frozen representation"目標を持つメソッドよりも優れている。
論文 参考訳(メタデータ) (2021-05-05T17:56:00Z) - Adaptive Sampling for Minimax Fair Classification [40.936345085421955]
最適化の原理に基づく適応型サンプリングアルゴリズムを提案し,その性能に関する理論的境界を導出する。
特定の問題のクラスに対してアルゴリズム独立なローバウンドを導出することにより,適応スキームによる性能は一般に改善できないことを示した。
論文 参考訳(メタデータ) (2021-03-01T04:58:27Z) - Model-Based Domain Generalization [96.84818110323518]
本稿では,モデルベースドメイン一般化問題に対する新しいアプローチを提案する。
我々のアルゴリズムは、最新のwildsベンチマークの最先端手法を最大20ポイント上回った。
論文 参考訳(メタデータ) (2021-02-23T00:59:02Z) - Hyperspherical embedding for novel class classification [1.5952956981784217]
本稿では,正規化ソフトマックス損失下での潜在空間の表現に制約に基づくアプローチを提案する。
本研究では,メトリクス学習と正規化ソフトマックス損失の両方を用いて,異なるデータセット上の未知のクラスを分類するための提案手法を実験的に検証した。
この結果から,提案した戦略は,ペアワイズ学習を必要とせず,メトリック学習戦略よりも優れた分類結果を提供するため,より大規模なクラスで効率的に学習可能であることが示唆された。
論文 参考訳(メタデータ) (2021-02-05T15:42:13Z) - Bridging the Gap: Unifying the Training and Evaluation of Neural Network
Binary Classifiers [0.4893345190925178]
本論文では,Heaviside関数の微分可能な近似と,ソフトセットを用いた典型的な混乱行列値の確率的ビューを組み合わせたニューラルネットワークバイナリ分類器の訓練手法を提案する。
我々の理論解析は,ソフトセットを用いた$F_$-Scoreなどの評価基準を最適化する手法の利点を示している。
論文 参考訳(メタデータ) (2020-09-02T22:13:26Z) - Semi-Supervised Learning with Meta-Gradient [123.26748223837802]
半教師付き学習における簡単なメタ学習アルゴリズムを提案する。
その結果,提案アルゴリズムは最先端の手法に対して良好に動作することがわかった。
論文 参考訳(メタデータ) (2020-07-08T08:48:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。