論文の概要: Scatter-Based Innovation Propagation in Large Language Models for Multi-Stage Process Adaptation
- arxiv url: http://arxiv.org/abs/2506.17949v1
- Date: Sun, 22 Jun 2025 09:02:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-24 19:06:36.665879
- Title: Scatter-Based Innovation Propagation in Large Language Models for Multi-Stage Process Adaptation
- Title(参考訳): マルチステージプロセス適応のための大規模言語モデルにおける散乱に基づくイノベーション伝播
- Authors: Hong Su,
- Abstract要約: 大規模言語モデル(LLM)は、事前訓練中に観察されるパターンの再現と拡張において強力な能力を示す。
本稿では,多段階プロセスの他の部分にローカライズされたイノベーション – 特定の段階やコンポーネント – を適用するという課題に対処する。
- 参考スコア(独自算出の注目度): 0.3807314298073301
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) exhibit strong capabilities in reproducing and extending patterns observed during pretraining but often struggle to generalize novel ideas beyond their original context. This paper addresses the challenge of applying such localized innovations - introduced at a specific stage or component - to other parts of a multi-stage process. We propose a scatter-based innovation expansion model (innovation scatter model) that guides the LLM through a four-step process: (1) identifying the core innovation by comparing the user's input with its surrounding context, (2) generalizing the innovation by removing references to specific stages or components, (3) determining whether the generalized innovation applies to a broader scope beyond the original stage, and (4) systematically applying it to other structurally similar stages using the LLM. This model leverages structural redundancy across stages to improve the applicability of novel ideas. Verification results demonstrate that the innovation scatter model enables LLMs to extend innovations across structurally similar stages, thereby enhancing generalization and reuse.
- Abstract(参考訳): 大規模言語モデル(LLM)は、事前訓練中に観察されたパターンを再現および拡張する強力な能力を示すが、しばしば、新しいアイデアを元の文脈を超えて一般化するのに苦労する。
本稿は、特定の段階やコンポーネントで導入されるような局所的なイノベーションを、多段階プロセスの他の部分に応用するという課題に対処する。
筆者らは,(1)ユーザの入力と周囲のコンテキストを比較してコアイノベーションを同定し,(2)特定のステージやコンポーネントへの参照を除去してイノベーションを一般化し,(3)一般化されたイノベーションが当初の段階を超えて広い範囲に適用されるか否かを判断し,(4)LLMを用いた他の構造的に類似したステージに体系的に適用する,という4段階のプロセスを通じて,LCMを導くスキャッタベースのイノベーション拡張モデル(イノベーション・スキャッタモデル)を提案する。
このモデルは、新しいアイデアの適用性を改善するために、ステージ間の構造的冗長性を活用する。
検証結果は,LLMが構造的に類似した段階にまたがってイノベーションを拡大し,一般化と再利用を促進できることを示す。
関連論文リスト
- REMoH: A Reflective Evolution of Multi-objective Heuristics approach via Large Language Models [39.85828629779943]
多目的最適化は、複雑な意思決定タスクにおいて基礎となる。
大規模言語モデル(LLM)の最近の進歩は、説明可能性、適応性、推論の強化を提供する。
本研究では,NSGA-II と LLM を融合した新たなフレームワークである REMoH (Reflectionive Evolution of Multi-Objective Heuristics) を提案する。
論文 参考訳(メタデータ) (2025-06-09T13:38:28Z) - A Survey on Progress in LLM Alignment from the Perspective of Reward Design [24.47393138031339]
人間の価値観と意図を持つ大規模言語モデル(LLM)は、AI研究における中核的な課題である。
本研究では,LLMアライメントにおける報酬機構の体系的理論的枠組みによる包括的検討を行う。
本研究は、報酬モデリングの進化的傾向を明らかにする体系的な分類枠組みを確立する。
論文 参考訳(メタデータ) (2025-05-05T14:15:02Z) - Exploiting Mixture-of-Experts Redundancy Unlocks Multimodal Generative Abilities [69.26544016976396]
我々は、新しいモダリティを学ぶための追加能力の源として、Mixture-of-Experts(MoEs)内の冗長性を利用する。
我々は、新しいモダリティのトークンのみに低ランク適応を適用することで、オリジナルの言語生成能力を保ちます。
論文 参考訳(メタデータ) (2025-03-28T15:21:24Z) - From Task-Specific Models to Unified Systems: A Review of Model Merging Approaches [13.778158813149833]
本稿では、モデルマージ手法の新たな分類法を確立し、異なるアプローチを体系的に比較し、重要な展開の概要を提供する。
この分野での急速な進歩にもかかわらず、最近の進歩と今後の方向性を予測する包括的な分類学と調査はいまだに欠落している。
論文 参考訳(メタデータ) (2025-03-12T02:17:31Z) - Empowering Few-Shot Relation Extraction with The Integration of Traditional RE Methods and Large Language Models [48.846159555253834]
Few-Shot Relation extract (FSRE)は自然言語処理(NLP)の研究者にアピールする
大規模言語モデル(LLM)の近年の出現により、多くの研究者が文脈学習(ICL)を通じてFSREを探求している。
論文 参考訳(メタデータ) (2024-07-12T03:31:11Z) - Model Composition for Multimodal Large Language Models [71.5729418523411]
本稿では,既存のMLLMのモデル構成による新しいパラダイムを提案する。
我々の基本的な実装であるNaiveMCは、モダリティエンコーダを再利用し、LLMパラメータをマージすることで、このパラダイムの有効性を実証する。
論文 参考訳(メタデータ) (2024-02-20T06:38:10Z) - RING-NeRF : Rethinking Inductive Biases for Versatile and Efficient Neural Fields [1.1816466088976698]
本稿では2つの帰納バイアスを含むRING-NeRFアーキテクチャを提案する。
単一の再構成プロセスは、誘導バイアスを生かし、オンパー性能を実験的に示す。
また、これらの帰納バイアスを生かした単一再構成プロセスを設計し、オンパー性能を実験的に実証する。
論文 参考訳(メタデータ) (2023-12-06T08:54:04Z) - Model Ratatouille: Recycling Diverse Models for Out-of-Distribution
Generalization [99.6826401545377]
ファウンデーションモデルは、AIシステムの構築方法を再定義している。実践者は、機械学習ソリューションを構築するための標準手順に従う。
我々は,多種多様な補助的タスクにおいて,同じ基礎モデルの複数の微調整をリサイクルする新しい戦略であるモデルラタトゥーイユを提案する。
論文 参考訳(メタデータ) (2022-12-20T17:21:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。