論文の概要: Reverse Supervision at Scale: Exponential Search Meets the Economics of Annotation
- arxiv url: http://arxiv.org/abs/2510.10446v1
- Date: Sun, 12 Oct 2025 04:45:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 18:06:29.941547
- Title: Reverse Supervision at Scale: Exponential Search Meets the Economics of Annotation
- Title(参考訳): Reverse Supervision at Scale: Exponential Search Meets the Economics of Annotation
- Authors: Masoud Makrehchi,
- Abstract要約: 我々は、小さなラベル付き集合(A)上の誤りを最小限に抑えるために、大きなラベル付き集合(B)のラベル付けを検索する戦略を分析する。
結果として生じる複雑性は、大きな定数スピードアップの下でも指数関数的のままである。
実際には、マシンラーニングパイプラインには、初期的な人間によるコントリビューションが依然として必要である。
- 参考スコア(独自算出の注目度): 1.5567685129899713
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We analyze a reversed-supervision strategy that searches over labelings of a large unlabeled set \(B\) to minimize error on a small labeled set \(A\). The search space is \(2^n\), and the resulting complexity remains exponential even under large constant-factor speedups (e.g., quantum or massively parallel hardware). Consequently, arbitrarily fast -- but not exponentially faster -- computation does not obviate the need for informative labels or priors. In practice, the machine learning pipeline still requires an initial human contribution: specifying the objective, defining classes, and providing a seed set of representative annotations that inject inductive bias and align models with task semantics. Synthetic labels from generative AI can partially substitute provided their quality is human-grade and anchored by a human-specified objective, seed supervision, and validation. In this view, generative models function as \emph{label amplifiers}, leveraging small human-curated cores via active, semi-supervised, and self-training loops, while humans retain oversight for calibration, drift detection, and failure auditing. Thus, extreme computational speed reduces wall-clock time but not the fundamental supervision needs of learning; initial human (or human-grade) input remains necessary to ground the system in the intended task.
- Abstract(参考訳): そこで我々は,小さなラベル付き集合 \(A\) 上の誤りを最小限に抑えるために,大きなラベル付き集合 \(B\) のラベル付けを探索する逆スーパービジョン戦略を解析した。
探索空間は \(2^n\) であり、結果として生じる複雑性は、大きな定数係数のスピードアップ(例えば、量子的または大規模並列ハードウェア)の下でも指数関数的に保たれる。
その結果、任意に高速だが指数関数的に高速ではない)な計算では、情報ラベルや事前の必要がなくなる。
実際には、マシンラーニングパイプラインは、目標を指定し、クラスを定義し、帰納的バイアスを注入し、モデルをタスクセマンティクスと整合させる代表的アノテーションのシードセットを提供するという、初期の人間によるコントリビューションを必要としている。
生成AIからの合成ラベルは、品質が人間級であり、人間の特定目的、種監督、検証によって固定されている場合、部分的に置換することができる。
この視点では、生成モデルは 'emph{label amplifiers} として機能し、アクティブ、半教師付き、自己学習ループを介して小さなヒト培養コアを活用し、ヒトは校正、ドリフト検出、障害監査の監督を保っている。
このように、極端な計算速度は、ウォールタイム時間を短縮するが、学習の基本的な監督要件ではない。
関連論文リスト
- INSIGHT: INference-time Sequence Introspection for Generating Help Triggers in Vision-Language-Action Models [2.509305596181814]
最近のVision-Language-Action(VLA)モデルは強力な一般化能力を示しているが、失敗を予測したり、人間の上司に助けを求めるための内省的なメカニズムは欠如している。
トークンレベルの不確実性信号を利用してVLAがいつ助けを求めるべきかを予測する学習フレームワークである textbfINSIGHT を提案する。
論文 参考訳(メタデータ) (2025-10-01T19:22:48Z) - Time-o1: Time-Series Forecasting Needs Transformed Label Alignment [50.54348432664401]
Time-o1は、時系列予測に適した変換強化学習目標である。
中心となる考え方は、ラベルシーケンスを区別された意味を持つ非相関なコンポーネントに変換することである。
Time-o1は最先端のパフォーマンスを実現し、様々な予測モデルと互換性がある。
論文 参考訳(メタデータ) (2025-05-23T13:00:35Z) - Unsupervised Domain Adaptation for Occlusion Resilient Human Pose Estimation [23.0839810713682]
排除は人間のポーズ推定アルゴリズムにとって重要な課題である。
OR-POSE: Occlusion Resilient Human POSE Estimationのための教師なしドメイン適応を提案する。
論文 参考訳(メタデータ) (2025-01-06T05:30:37Z) - Toward Understanding BERT-Like Pre-Training for DNA Foundation Models [78.48760388079523]
既存のDNA配列の事前訓練方法は、NLPからのBERT事前訓練の直接的な採用に依存している。
マスク境界を連続的に拡張することにより,BERTライクな事前学習作業の難易度を徐々に向上させるRandomMaskという新しい手法を提案する。
RandomMaskは、マシューのエピジェネティック・マーク・予測の相関係数の68.16%を突破し、ベースラインの19.85%を突破した。
論文 参考訳(メタデータ) (2023-10-11T16:40:57Z) - Towards Robust Continual Learning with Bayesian Adaptive Moment Regularization [51.34904967046097]
継続的な学習は、モデルが以前に学習した情報を忘れてしまう破滅的な忘れ込みの課題を克服しようとする。
本稿では,パラメータ成長の制約を緩和し,破滅的な忘れを減らし,新しい事前手法を提案する。
以上の結果から, BAdamは, 単頭クラスインクリメンタル実験に挑戦する先行手法に対して, 最先端の性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2023-09-15T17:10:51Z) - Leveraging Time Irreversibility with Order-Contrastive Pre-training [3.1848820580333737]
時系列データに基づく自己教師付き事前学習のための「順序コントラスト」手法について検討する。
本研究では,順序コントラスト事前学習で学習した表現の下流誤差に対する有限サンプル保証を証明した。
この結果から,特定の分布クラスや下流タスクのために設計された事前学習手法が,自己指導型学習の性能を向上させることが示唆された。
論文 参考訳(メタデータ) (2021-11-04T02:56:52Z) - Self-supervised driven consistency training for annotation efficient
histopathology image analysis [13.005873872821066]
大きなラベル付きデータセットでニューラルネットワークをトレーニングすることは、計算病理学において依然として支配的なパラダイムである。
本研究では,非教師付き表現学習のための強力な監視信号を学ぶために,ヒストロジ全体スライディング画像の背景となる多段階的文脈的手がかりを利用する自己教師付きプレテキストタスクを提案する。
また,タスク固有の未ラベルデータとの予測整合性に基づいて,事前学習した表現を下流タスクに効果的に転送することを学ぶ教師による半教師付き一貫性パラダイムを提案する。
論文 参考訳(メタデータ) (2021-02-07T19:46:21Z) - An Information Bottleneck Approach for Controlling Conciseness in
Rationale Extraction [84.49035467829819]
我々は,情報ボトルネック(IB)の目的を最適化することで,このトレードオフをよりよく管理できることを示す。
我々の完全教師なしのアプローチは、文上のスパース二項マスクを予測する説明器と、抽出された合理性のみを考慮したエンドタスク予測器を共同で学習する。
論文 参考訳(メタデータ) (2020-05-01T23:26:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。