論文の概要: Limitations of refinement methods for weak to strong generalization
- arxiv url: http://arxiv.org/abs/2508.17018v1
- Date: Sat, 23 Aug 2025 13:17:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-26 18:43:45.301392
- Title: Limitations of refinement methods for weak to strong generalization
- Title(参考訳): 弱から強一般化のための精製法の限界
- Authors: Seamus Somerstep, Ya'acov Ritov, Mikhail Yurochkin, Subha Maity, Yuekai Sun,
- Abstract要約: 我々は,計算的に難解なオラクル法を含む他の手法により,ラベルの洗練が達成できるかどうかを解析する。
ラベルリファインメントとラベルリファインメントはどちらも既約誤差に悩まされており,ラベルリファインメントとオラクルの間には性能的ギャップが残されている。
- 参考スコア(独自算出の注目度): 42.32425369722278
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Standard techniques for aligning large language models (LLMs) utilize human-produced data, which could limit the capability of any aligned LLM to human level. Label refinement and weak training have emerged as promising strategies to address this superalignment problem. In this work, we adopt probabilistic assumptions commonly used to study label refinement and analyze whether refinement can be outperformed by alternative approaches, including computationally intractable oracle methods. We show that both weak training and label refinement suffer from irreducible error, leaving a performance gap between label refinement and the oracle. These results motivate future research into developing alternative methods for weak to strong generalization that synthesize the practicality of label refinement or weak training and the optimality of the oracle procedure.
- Abstract(参考訳): 大規模言語モデル(LLM)の整列のための標準的な技術は、人間の生成したデータを利用しており、これは任意の整列 LLM の能力を人間レベルに制限する可能性がある。
ラベルリファインメントと弱いトレーニングは、このスーパーアライメント問題に対処するための有望な戦略として現れている。
本研究では,ラベルリファインメントの研究によく用いられる確率論的仮定を採用し,計算的に難解なオラクル法を含む代替手法により,リファインメントが優れているかどうかを解析する。
ラベルリファインメントとラベルリファインメントはどちらも既約誤差に悩まされており,ラベルリファインメントとオラクルの間には性能的ギャップが残されている。
これらの結果は、ラベルリファインメントや弱いトレーニングの実践性とオラクル手順の最適性を合成する弱から強の一般化のための代替手法の開発に、将来の研究を動機付けている。
関連論文リスト
- Soft-Label Integration for Robust Toxicity Classification [39.159343518702805]
この研究は、クラウドソースアノテーションとソフトラベル技術を統合する、新しい双方向最適化フレームワークを導入している。
GroupDROは、アウト・オブ・ディストリビューション(OOD)リスクに対する堅牢性を高めるために使用される。
実験の結果,提案手法は,平均および最悪のグループ精度において,既存のベースライン法よりも優れていた。
論文 参考訳(メタデータ) (2024-10-18T22:36:03Z) - Robust Representation Learning for Unreliable Partial Label Learning [86.909511808373]
部分ラベル学習(Partial Label Learning, PLL)は、弱い教師付き学習の一種で、各トレーニングインスタンスに候補ラベルのセットが割り当てられる。
これはUn Reliable partial Label Learning (UPLL) と呼ばれ、部分ラベルの本質的な信頼性の欠如とあいまいさにより、さらなる複雑さをもたらす。
本研究では,信頼できない部分ラベルに対するモデル強化を支援するために,信頼性に欠けるコントラスト学習を活用するUnreliability-Robust Representation Learning framework(URRL)を提案する。
論文 参考訳(メタデータ) (2023-08-31T13:37:28Z) - SoftMatch: Addressing the Quantity-Quality Trade-off in Semi-supervised
Learning [101.86916775218403]
本稿では, サンプル重み付けを統一した定式化により, 一般的な擬似ラベル法を再検討する。
トレーニング中の擬似ラベルの量と質を両立させることでトレードオフを克服するSoftMatchを提案する。
実験では、画像、テキスト、不均衡な分類など、さまざまなベンチマークで大幅に改善されている。
論文 参考訳(メタデータ) (2023-01-26T03:53:25Z) - Improved Adaptive Algorithm for Scalable Active Learning with Weak
Labeler [89.27610526884496]
Weak Labeler Active Cover (WL-AC)は、要求される精度を維持しながら、クエリの複雑さを低減するために、低品質の弱いラベルを堅牢に活用することができる。
受動学習と同一の精度を維持しつつラベル数を著しく削減し, 劣化したMNISTデータセット上での有効性を示す。
論文 参考訳(メタデータ) (2022-11-04T02:52:54Z) - Rethinking Clustering-Based Pseudo-Labeling for Unsupervised
Meta-Learning [146.11600461034746]
教師なしメタラーニングのメソッドであるCACTUsは、擬似ラベル付きクラスタリングベースのアプローチである。
このアプローチはモデルに依存しないため、教師付きアルゴリズムと組み合わせてラベルのないデータから学習することができる。
このことの核となる理由は、埋め込み空間においてクラスタリングに優しい性質が欠如していることである。
論文 参考訳(メタデータ) (2022-09-27T19:04:36Z) - Influential Rank: A New Perspective of Post-training for Robust Model
against Noisy Labels [23.80449026013167]
本稿では,雑音ラベル(LNL)からポストトレーニングを通じて学習する新しい手法を提案する。
我々は、トレーニングされたモデルの過度な適合性を利用して、誤ラベルされたサンプルを識別する。
我々のポストトレーニングアプローチは、既存のLNL法と組み合わせることで大きなシナジーを生み出す。
論文 参考訳(メタデータ) (2021-06-14T08:04:18Z) - Semi-Supervised Learning with Meta-Gradient [123.26748223837802]
半教師付き学習における簡単なメタ学習アルゴリズムを提案する。
その結果,提案アルゴリズムは最先端の手法に対して良好に動作することがわかった。
論文 参考訳(メタデータ) (2020-07-08T08:48:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。