論文の概要: AR-MAP: Are Autoregressive Large Language Models Implicit Teachers for Diffusion Large Language Models?
- arxiv url: http://arxiv.org/abs/2602.02178v2
- Date: Tue, 03 Feb 2026 03:22:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-04 13:28:03.739923
- Title: AR-MAP: Are Autoregressive Large Language Models Implicit Teachers for Diffusion Large Language Models?
- Title(参考訳): AR-MAP: 自己回帰型大言語モデルは、拡散型大言語モデルに教師を惹きつけるか?
- Authors: Liang Lin, Feng Xiong, Zengbin Wang, Kun Wang, Junhao Dong, Xuecai Hu, Yong Wang, Xiangxiang Chu,
- Abstract要約: 拡散大言語モデル(DLLM)は自己回帰モデルに代わる強力な代替手段として登場した。
エビデンス・ロウアー・バウンド(ELBO)による推定結果から,DLLMの選好アライメントは依然として困難である。
本稿では,選択整合型自己回帰LDMを暗黙の教師として活用し,分散Mアライメントのための新しい伝達学習フレームワークであるAR-MAPを提案する。
- 参考スコア(独自算出の注目度): 58.52365018076441
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Diffusion Large Language Models (DLLMs) have emerged as a powerful alternative to autoregressive models, enabling parallel token generation across multiple positions. However, preference alignment of DLLMs remains challenging due to high variance introduced by Evidence Lower Bound (ELBO)-based likelihood estimation. In this work, we propose AR-MAP, a novel transfer learning framework that leverages preference-aligned autoregressive LLMs (AR-LLMs) as implicit teachers for DLLM alignment. We reveal that DLLMs can effectively absorb alignment knowledge from AR-LLMs through simple weight scaling, exploiting the shared architectural structure between these divergent generation paradigms. Crucially, our approach circumvents the high variance and computational overhead of direct DLLM alignment and comprehensive experiments across diverse preference alignment tasks demonstrate that AR-MAP achieves competitive or superior performance compared to existing DLLM-specific alignment methods, achieving 69.08\% average score across all tasks and models. Our Code is available at https://github.com/AMAP-ML/AR-MAP.
- Abstract(参考訳): 拡散大言語モデル(DLLM)は自己回帰モデルの強力な代替として登場し、複数の位置をまたいだ並列トークン生成を可能にしている。
しかし,エビデンス下界(ELBO)に基づく推定では,高いばらつきが生じるため,DLLMの選好アライメントは依然として困難である。
本研究では, DLLMアライメントのための暗黙の教師として, 優先整合型自己回帰LDM(AR-LLM)を活用する, トランスファー学習フレームワークであるAR-MAPを提案する。
DLLMはAR-LLMからのアライメント知識を単純なウェイトスケーリングによって効果的に吸収し、これらの分岐生成パラダイム間の共有アーキテクチャ構造を活用できることを明らかにする。
提案手法は,従来のDLLM固有のアライメント手法と比較して,AR-MAPが競争力や優れた性能を発揮し,すべてのタスクやモデルの平均スコアが69.08 %に達することを示す。
私たちのコードはhttps://github.com/AMAP-ML/AR-MAPで利用可能です。
関連論文リスト
- Your Mixture-of-Experts LLM Is Secretly an Embedding Model For Free [21.59456761618456]
大規模言語モデル(LLM)は生成タスクに優れ、デコーダのみのアーキテクチャは、さらなる表現の微調整が適用されない場合、埋め込みモデルとしての可能性を制限することが多い。
我々の研究は、MoE LLMのエキスパートルータが、様々な組込みタスクに対して有望な性能を持つ既製の組込みモデルとして機能できることを示唆している。
論文 参考訳(メタデータ) (2024-10-14T17:59:44Z) - Align$^2$LLaVA: Cascaded Human and Large Language Model Preference Alignment for Multi-modal Instruction Curation [56.75665429851673]
本稿では,人間とLLMの選好アライメントという2つのユニークな視点から導いた,新しい命令キュレーションアルゴリズムを提案する。
実験により,合成マルチモーダル命令を最大90%圧縮することにより,モデル性能の維持や改善が可能であることが示された。
論文 参考訳(メタデータ) (2024-09-27T08:20:59Z) - ULLME: A Unified Framework for Large Language Model Embeddings with Generation-Augmented Learning [72.90823351726374]
我々は,LLM間の双方向の注目を可能にする,柔軟でプラグアンドプレイな実装であるLULME(Unified framework for Large Language Model Embedding)を紹介した。
また,テキスト埋め込みタスクのLLMを向上する新しい微調整手法であるGRL(Generation-augmented Representation Learning)を提案する。
フレームワークの柔軟性と有効性を示すために、異なるバックボーンアーキテクチャを持つULLMEから事前訓練された3つのモデルをリリースする。
論文 参考訳(メタデータ) (2024-08-06T18:53:54Z) - Understanding Alignment in Multimodal LLMs: A Comprehensive Study [46.33812471516309]
マルチモーダル大言語モデル(MLLM)における嗜好アライメントのそれぞれの側面を解析する。
オフライン手法とオンライン手法を組み合わせることで,特定のシナリオにおけるモデルの性能が向上することを示す。
BDHS(Bias-Driven Hallucination Smpling)と呼ばれる,マルチモーダルな嗜好データ作成手法を提案する。
論文 参考訳(メタデータ) (2024-07-02T17:55:03Z) - Knowledge Fusion of Large Language Models [73.28202188100646]
本稿では,大規模言語モデル(LLM)における知識融合の概念を紹介する。
我々は、それらの集合的知識と独特な強みを外部化し、それによってターゲットモデルの能力が、どのソースLLMよりも高められるようにします。
この結果から,LLMの融合により,推論やコモンセンス,コード生成など,対象モデルの性能が向上することが確認された。
論文 参考訳(メタデータ) (2024-01-19T05:02:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。