論文の概要: Leveraging Parameter Space Symmetries for Reasoning Skill Transfer in LLMs
- arxiv url: http://arxiv.org/abs/2511.10850v1
- Date: Thu, 13 Nov 2025 23:20:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-17 22:42:18.362534
- Title: Leveraging Parameter Space Symmetries for Reasoning Skill Transfer in LLMs
- Title(参考訳): LLMにおける推論スキル伝達のためのパラメータ空間対称性の活用
- Authors: Stefan Horoi, Sangwoo Cho, Supriyo Chakraborty, Shi-Xiong Zhang, Sambit Sahu, Guy Wolf, Genta Indra Winata,
- Abstract要約: タスク算術は大規模言語モデル(LLM)間でスキルを伝達する強力な手法である
まずモデルのパラメータ空間をアライメントし、トランスフォーマーアーキテクチャの固有の置換、回転、スケーリング対称性を活用する。
我々は、高度な推論スキルを非推論モデルに転送することに成功しました。
- 参考スコア(独自算出の注目度): 27.978175136002005
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Task arithmetic is a powerful technique for transferring skills between Large Language Models (LLMs), but it often suffers from negative interference when models have diverged during training. We address this limitation by first aligning the models' parameter spaces, leveraging the inherent permutation, rotation, and scaling symmetries of Transformer architectures. We adapt parameter space alignment for modern Grouped-Query Attention (GQA) and SwiGLU layers, exploring both weight-based and activation-based approaches. Using this alignment-first strategy, we successfully transfer advanced reasoning skills to a non-reasoning model. Experiments on challenging reasoning benchmarks show that our method consistently outperforms standard task arithmetic. This work provides an effective approach for merging and transferring specialized skills across evolving LLM families, reducing redundant fine-tuning and enhancing model adaptability.
- Abstract(参考訳): タスク算術は、Large Language Models (LLM) 間でスキルを伝達する強力な手法であるが、訓練中にモデルが分岐した場合、負の干渉に悩まされることが多い。
モデルのパラメータ空間を最初に整列し、トランスフォーマーアーキテクチャの固有の置換、回転、スケーリング対称性を活用することで、この制限に対処する。
我々は,現代的なグループクエリアテンション(GQA)とSwiGLU層に対してパラメータ空間アライメントを適用し,重みに基づくアプローチとアクティベーションに基づくアプローチを探索する。
このアライメントファースト戦略を用いて、高度な推論スキルを非推論モデルに転送することに成功した。
挑戦的推論ベンチマークの実験により、我々の手法は標準的なタスク演算よりも一貫して優れていることが示された。
この研究は、LLMファミリーの進化にまたがる特殊スキルのマージと移行に有効なアプローチを提供し、冗長な微調整とモデル適応性の向上を減らした。
関連論文リスト
- Generalized Tensor-based Parameter-Efficient Fine-Tuning via Lie Group Transformations [50.010924231754856]
さまざまな下流タスクに事前訓練された基礎モデルを適用することは、人工知能のコアプラクティスである。
これを解決するために、LoRAのようなパラメータ効率細調整(PEFT)手法が登場し、研究の焦点となっている。
本稿では,行列型PEFT法を高次元パラメータ空間に拡張する一般化法を提案する。
論文 参考訳(メタデータ) (2025-04-01T14:36:45Z) - Sens-Merging: Sensitivity-Guided Parameter Balancing for Merging Large Language Models [20.741460682103863]
Sens-Mergingはモデルマージのための感度誘導係数調整法である。
本研究では,Sens-Mergingが一般知識,数学的推論,コード生成タスクにおいて,性能を著しく向上させることを示す。
本研究は,タスク固有のスケーリングとタスク間の重要なトレードオフを明らかにし,今後のモデルマージ戦略の洞察を提供する。
論文 参考訳(メタデータ) (2025-02-18T01:41:13Z) - How to Alleviate Catastrophic Forgetting in LLMs Finetuning? Hierarchical Layer-Wise and Element-Wise Regularization [15.434072331989878]
大きな言語モデル(LLM)は、強力な汎用言語能力を示す。
これらのモデルをドメイン固有のタスクで微調整すると、大惨な忘れがちになり、そこではモデルが事前訓練中に得られた重要な知識を上書きまたは失う。
本研究では,微調整時の一般知識の保存に不可欠なモデルパラメータの要素的重要性を計算するための新しい手法を提案する。
論文 参考訳(メタデータ) (2025-01-23T13:54:53Z) - Merging Models on the Fly Without Retraining: A Sequential Approach to Scalable Continual Model Merging [75.93960998357812]
ディープモデルマージ(Deep Modelmerging)は、複数の微調整モデルを組み合わせて、さまざまなタスクやドメインにまたがる能力を活用する、新たな研究方向を示すものだ。
現在のモデルマージ技術は、全ての利用可能なモデルを同時にマージすることに集中しており、重量行列に基づく手法が主要なアプローチである。
本稿では,モデルを逐次処理するトレーニングフリーなプロジェクションベース連続マージ手法を提案する。
論文 参考訳(メタデータ) (2025-01-16T13:17:24Z) - Transformer-Squared: Self-adaptive LLMs [29.1326358746118]
そこで我々はTransformer-Squaredという新しい自己適応フレームワークを紹介した。
提案手法は,LoRAなどのユビキタスな手法よりもパラメータが少なく,効率も向上する。
Transformer-Squaredは、LLMの適応性とタスク固有のパフォーマンスを向上させる、スケーラブルで効率的なソリューションを提供する。
論文 参考訳(メタデータ) (2025-01-09T01:19:21Z) - Sketch to Adapt: Fine-Tunable Sketches for Efficient LLM Adaptation [33.05581803204543]
事前訓練された大規模言語モデル(LLM)の適応は極めて重要であるが、その巨大なサイズのため困難である。
スケッチチューン(SketchTune)は、重みをコンパクトな微調整可能なスケッチに圧縮する圧縮適応戦略である。
SketchTuneは、低ランクメソッドではなくスケッチによって近似された行列クラスに関する数学的洞察によってサポートされている。
論文 参考訳(メタデータ) (2024-10-08T20:58:24Z) - Reference Trustable Decoding: A Training-Free Augmentation Paradigm for Large Language Models [79.41139393080736]
大規模言語モデル(LLM)は急速に進歩し、印象的な機能を示している。
In-Context Learning (ICL) など。
効率的なファインチューニング(PEFT)は、現在2つの主要な拡張方法である。
下流タスクへのLLM。
我々は、モデルが微調整なしで新しいタスクに迅速に適応できるパラダイムである参照信頼復号(RTD)を提案する。
論文 参考訳(メタデータ) (2024-09-30T10:48:20Z) - Model-Agnostic Multitask Fine-tuning for Few-shot Vision-Language
Transfer Learning [59.38343286807997]
未知タスクの視覚言語モデルのためのモデル非依存型マルチタスクファインチューニング(MAMF)を提案する。
モデルに依存しないメタラーニング(MAML)と比較して、MAMFは二段階最適化を捨て、一階勾配のみを使用する。
MAMFは5つのベンチマークデータセット上で、数ショットの転送学習において古典的な微調整法よりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2022-03-09T17:26:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。