論文の概要: Language Modeling by Language Models
- arxiv url: http://arxiv.org/abs/2506.20249v1
- Date: Wed, 25 Jun 2025 08:46:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-26 21:00:42.663847
- Title: Language Modeling by Language Models
- Title(参考訳): 言語モデルによる言語モデリング
- Authors: Junyan Cheng, Peter Clark, Kyle Richardson,
- Abstract要約: 本稿では,従来の研究段階をシミュレートするマルチエージェント言語モデル(LM)を提案する。
新しいデザインが提案され、反対にレビューされ、実装され、選択的に検証される。
新たに発見された1,162個の設計に関する実験を報告する。
- 参考スコア(独自算出の注目度): 28.806378373136543
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Can we leverage LLMs to model the process of discovering novel language model (LM) architectures? Inspired by real research, we propose a multi-agent LLM approach that simulates the conventional stages of research, from ideation and literature search (proposal stage) to design implementation (code generation), generative pre-training, and downstream evaluation (verification). Using ideas from scaling laws, our system, Genesys, employs a Ladder of Scales approach; new designs are proposed, adversarially reviewed, implemented, and selectively verified at increasingly larger model scales (14M$\sim$350M parameters) with a narrowing budget (the number of models we can train at each scale). To help make discovery efficient and factorizable, Genesys uses a novel genetic programming backbone, which we show has empirical advantages over commonly used direct prompt generation workflows (e.g., $\sim$86\% percentage point improvement in successful design generation, a key bottleneck). We report experiments involving 1,162 newly discovered designs (1,062 fully verified through pre-training) and find the best designs to be highly competitive with known architectures (e.g., outperform GPT2, Mamba2, etc., on 6/9 common benchmarks). We couple these results with comprehensive system-level ablations and formal results, which give broader insights into the design of effective autonomous discovery systems.
- Abstract(参考訳): LLMを利用して、新しい言語モデル(LM)アーキテクチャの発見プロセスをモデル化できるだろうか?
実際の研究から着想を得たマルチエージェントLSMアプローチを提案し,概念化や文献検索から実装(コード生成),生成前学習,下流評価(検証)に至るまで,従来の研究段階をシミュレートする。
新たな設計が提案され、反対にレビューされ、実装され、より大きなモデルスケール(14M$\sim$350Mパラメータ)で選択的に検証され、予算が狭まる(各スケールでトレーニングできるモデルの数)。
Genesysは、発見を効率的かつ分解可能なものにするために、新しい遺伝的プログラミングバックボーンを使用します。
新たに発見された1,162個の設計(事前学習により1,062個の完全検証)に関する実験を報告し、6/9の共通ベンチマークにおいて、既知のアーキテクチャ(GPT2, Mamba2など)と高い競争力を持つ最良の設計を見出した。
これらの結果を総合的なシステムレベルのアブリケーションと形式的な結果と組み合わせて、効率的な自律的な発見システムの設計に関するより広範な洞察を与える。
関連論文リスト
- Model Merging in Pre-training of Large Language Models [39.413435498849445]
本稿では,事前学習過程におけるモデルマージ手法について包括的に検討する。
一定の学習率で訓練されたチェックポイントをマージすることで、大幅な性能向上が達成できることを示す。
我々は、効果的なモデルマージのための実践的な事前トレーニングガイドラインをオープンソースコミュニティに提供する。
論文 参考訳(メタデータ) (2025-05-17T16:53:14Z) - Exploring Training and Inference Scaling Laws in Generative Retrieval [50.82554729023865]
生成検索は、検索を自己回帰生成タスクとして再構成し、大きな言語モデルがクエリから直接ターゲット文書を生成する。
生成的検索におけるトレーニングと推論のスケーリング法則を体系的に検討し,モデルのサイズ,トレーニングデータスケール,推論時間計算が協調的に性能に与える影響について検討した。
論文 参考訳(メタデータ) (2025-03-24T17:59:03Z) - Fine-tuning large language models for domain adaptation: Exploration of training strategies, scaling, model merging and synergistic capabilities [4.389938747401259]
本研究は、材料科学や工学などの分野における大規模言語モデル(LLM)に対する微調整戦略の効果について考察する。
複数の微調整モデルの融合は、親モデルの個々の貢献を超越した能力の出現につながる可能性がある。
論文 参考訳(メタデータ) (2024-09-05T11:49:53Z) - LLAVADI: What Matters For Multimodal Large Language Models Distillation [77.73964744238519]
本研究では,新しい効率的なモデル構造を提案するのではなく,スクラッチから小規模MLLMを訓練する。
本研究は, 知識蒸留プロセスにおける学習戦略, モデル選択, 蒸留アルゴリズムに関するものである。
異なるベンチマークと適切な戦略を評価することで、2.7Bの小型モデルでも7Bまたは13Bのパラメータを持つ大型モデルと同等に動作することができる。
論文 参考訳(メタデータ) (2024-07-28T06:10:47Z) - The Languini Kitchen: Enabling Language Modelling Research at Different
Scales of Compute [66.84421705029624]
本稿では,アクセル時間で測定された等価計算に基づくモデル比較を可能にする実験的プロトコルを提案する。
私たちは、既存の学術的ベンチマークを上回り、品質、多様性、文書の長さで上回る、大規模で多様で高品質な書籍データセットを前処理します。
この研究は、GPT-2アーキテクチャから派生したフィードフォワードモデルと、10倍のスループットを持つ新しいLSTMの形式でのリカレントモデルという2つのベースラインモデルも提供する。
論文 参考訳(メタデータ) (2023-09-20T10:31:17Z) - An Empirical Study of Multimodal Model Merging [148.48412442848795]
モデルマージは、異なるタスクでトレーニングされた複数のモデルを融合してマルチタスクソリューションを生成するテクニックである。
我々は、モダリティ固有のアーキテクチャのビジョン、言語、およびクロスモーダルトランスフォーマーをマージできる新しい目標に向けて研究を行っている。
本稿では,重み間の距離を推定し,マージ結果の指標となる2つの指標を提案する。
論文 参考訳(メタデータ) (2023-04-28T15:43:21Z) - A General Framework for Sample-Efficient Function Approximation in
Reinforcement Learning [132.45959478064736]
モデルベースとモデルフリー強化学習を統合した汎用フレームワークを提案する。
最適化に基づく探索のための分解可能な構造特性を持つ新しい推定関数を提案する。
本フレームワークでは,OPERA (Optimization-based Exploration with Approximation) という新しいサンプル効率アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-09-30T17:59:16Z) - AutoBERT-Zero: Evolving BERT Backbone from Scratch [94.89102524181986]
そこで本稿では,提案するハイブリッドバックボーンアーキテクチャを自動検索するOP-NASアルゴリズムを提案する。
提案するOP-NASの効率を向上させるために,探索アルゴリズムと候補モデルの評価を最適化する。
実験の結果、検索されたアーキテクチャ(AutoBERT-Zero)は、様々な下流タスクにおいてBERTとそのバリエーションの異なるモデル容量を著しく上回っていることがわかった。
論文 参考訳(メタデータ) (2021-07-15T16:46:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。