論文の概要: Co-Supervised Learning: Improving Weak-to-Strong Generalization with
Hierarchical Mixture of Experts
- arxiv url: http://arxiv.org/abs/2402.15505v1
- Date: Fri, 23 Feb 2024 18:56:11 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-26 13:45:01.661593
- Title: Co-Supervised Learning: Improving Weak-to-Strong Generalization with
Hierarchical Mixture of Experts
- Title(参考訳): 共同指導型学習:専門家の階層的混合による弱相関一般化の改善
- Authors: Yuejiang Liu, Alexandre Alahi
- Abstract要約: 我々は,一貫した生徒を統括する,一貫した一貫した教師ではなく,多様な専門教師の集合を活用することを提案する。
我々のアプローチは、古典的な階層的な専門家の混合に似ている。
提案手法は,OpenAIの弱強ベンチマークと追加のマルチドメインデータセットを用いて,視覚認識タスクにより検証する。
- 参考スコア(独自算出の注目度): 81.37287967870589
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Steering the behavior of a strong model pre-trained on internet-scale data
can be difficult due to the scarcity of competent supervisors. Recent studies
reveal that, despite supervisory noises, a strong student model may surpass its
weak teacher when fine-tuned on specific objectives. Yet, the effectiveness of
such weak-to-strong generalization remains limited, especially in the presence
of large capability gaps. In this paper, we propose to address this challenge
by harnessing a diverse set of specialized teachers, instead of a single
generalist one, that collectively supervises the strong student. Our approach
resembles the classical hierarchical mixture of experts, with two components
tailored for co-supervision: (i) we progressively alternate student training
and teacher assignment, leveraging the growth of the strong student to identify
plausible supervisions; (ii) we conservatively enforce teacher-student and
local-global consistency, leveraging their dependencies to reject potential
annotation noises. We validate the proposed method through visual recognition
tasks on the OpenAI weak-to-strong benchmark and additional multi-domain
datasets. Our code is available at \url{https://github.com/yuejiangliu/csl}.
- Abstract(参考訳): インターネット規模のデータで事前訓練された強固なモデルの振る舞いを操るのは、有能な管理者が不足しているため困難である。
近年の研究では、監督的な騒音にもかかわらず、特定の目的を微調整すると、強力な生徒モデルが弱い教師を上回る可能性があることが示されている。
しかし、そのような弱強一般化の有効性は、特に大きな能力ギャップの存在下では限定的である。
本稿では,一貫した生徒を統括する一貫した一般教師ではなく,多様な専門教員の集合を活用することで,この課題に対処することを提案する。
私たちのアプローチは、古典的な階層的な専門家の混合に似ている。
i) 学生の教育と教員の任命を段階的に交互に交互に行い, 学生の成長を活用して, もっともらしい監督者を特定すること。
(ii)我々は教師・生徒・地域・グローバル一貫性を保守的に強制し、その依存関係を利用して潜在的なアノテーションノイズを拒否する。
提案手法は,OpenAIの弱強度ベンチマークと追加のマルチドメインデータセットを用いた視覚認識タスクにより検証する。
我々のコードは \url{https://github.com/yuejiangliu/csl} で入手できる。
関連論文リスト
- Provable Weak-to-Strong Generalization via Benign Overfitting [3.4652800888823294]
弱い教師が不完全な擬似ラベルを持つ強い生徒を監督する逆の状況を考える。
理論的には、二進分類と多進分類の弱強一般化を理論的に検討する。
我々の手法は最終的には弱いクラスから強いクラスに拡張されるべきである。
論文 参考訳(メタデータ) (2024-10-06T22:10:50Z) - Adaptive Teaching in Heterogeneous Agents: Balancing Surprise in Sparse Reward Scenarios [3.638198517970729]
実証から学ぶことは、類似エージェントでシステムを訓練する効果的な方法である。
しかし、生徒の能力の限界から外れたデモを自然に複製することは、効率的な学習を制限することができる。
本稿では,教師と学生エージェントの異質性の課題に対処するために,教員-学生学習フレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-23T05:52:42Z) - Vision Superalignment: Weak-to-Strong Generalization for Vision
Foundation Models [55.919653720979824]
本稿では、より弱いモデルを用いてより強いモデルを監督する弱強一般化の概念に焦点を当てる。
弱強監督のための新規かつ適応的に調整可能な損失関数を提案する。
提案手法は, 強い一般化によって設定された性能ベンチマークを超えるだけでなく, データセット全体を用いた微調整の強いモデルの結果を上回る。
論文 参考訳(メタデータ) (2024-02-06T06:30:34Z) - Improving Weak-to-Strong Generalization with Scalable Oversight and
Ensemble Learning [21.401598876308345]
本稿では,OpenAI の Wak-to-Strong Generalization (W2SG) に関する最近のスーパーアライメント研究について報告する。
Superalignmentは、複雑でリスクの高いタスクを扱う際に、ハイレベルなAIシステムが人間の価値観や意図と一貫していることを保証することに重点を置いている。
本研究は,W2SGフレームワーク下での2つのスーパーアライメントの位相をシミュレートする。
論文 参考訳(メタデータ) (2024-02-01T15:30:19Z) - Hierarchical Decomposition of Prompt-Based Continual Learning:
Rethinking Obscured Sub-optimality [55.88910947643436]
大量のラベルのないデータを実際に扱うためには、自己教師付き事前トレーニングが不可欠である。
HiDe-Promptは、タスク固有のプロンプトと統計のアンサンブルで階層的なコンポーネントを明示的に最適化する革新的なアプローチである。
実験では,HiDe-Promptの優れた性能と,継続学習における事前学習パラダイムへの頑健さを実証した。
論文 参考訳(メタデータ) (2023-10-11T06:51:46Z) - Contrastive Knowledge Amalgamation for Unsupervised Image Classification [2.6392087010521728]
Contrastive Knowledge Amalgamation (CKA) は、複数の教師モデルから協調目的を扱うためのコンパクトな学生モデルを学ぶことを目的としている。
クラス内モデルとクラス間モデルとの対比損失は、異なるクラスの表現間の距離を拡大するように設計されている。
このアライメント損失は、共通表現空間における教師/学生モデルのサンプルレベルの分布差を最小限に抑えるために導入された。
論文 参考訳(メタデータ) (2023-07-27T11:21:14Z) - Weakly-supervised HOI Detection via Prior-guided Bi-level Representation
Learning [66.00600682711995]
ヒューマンオブジェクトインタラクション(HOI)検出は、人間中心のシーン理解において重要な役割を担い、多くの視覚タスクの基本的なビルディングブロックとして機能する。
HOI検出のための汎用的でスケーラブルな戦略の1つは、画像レベルのアノテーションからのみ学習する弱い監視を使用することである。
これは、不明瞭な人間と物体の関連、HOIを検出する大きな探索空間、非常にノイズの多い訓練信号によって本質的に困難である。
画像レベルとHOIインスタンスレベルの両方で事前の知識を組み込むことができるCLIP誘導HOI表現を開発し、不正な人間とオブジェクトの関連性を実証するために自己学習機構を採用する。
論文 参考訳(メタデータ) (2023-03-02T14:41:31Z) - From Mimicking to Integrating: Knowledge Integration for Pre-Trained
Language Models [55.137869702763375]
本稿では,新しいPLM再利用パラダイムであるKnowledge Integration(KI)について検討する。
KIは,異なる分類問題に特化している教師-PLMの知識を,多種多様な学生モデルにマージすることを目的としている。
次に,モデル不確かさを意識した知識統合(MUKI)フレームワークを設計し,学生の黄金の監督を回復する。
論文 参考訳(メタデータ) (2022-10-11T07:59:08Z) - Unsupervised Learning of Debiased Representations with Pseudo-Attributes [85.5691102676175]
教師なし方式で,単純かつ効果的な脱バイアス手法を提案する。
特徴埋め込み空間上でクラスタリングを行い、クラスタリング結果を利用して疑似属性を識別する。
次に,非偏り表現を学習するために,クラスタベースの新しい重み付け手法を用いる。
論文 参考訳(メタデータ) (2021-08-06T05:20:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。