論文の概要: Towards a Small Language Model Lifecycle Framework
- arxiv url: http://arxiv.org/abs/2506.07695v1
- Date: Mon, 09 Jun 2025 12:33:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-10 16:33:10.944011
- Title: Towards a Small Language Model Lifecycle Framework
- Title(参考訳): 小言語モデルライフサイクルフレームワークを目指して
- Authors: Parsa Miraghaei, Sergio Moreschini, Antti Kolehmainen, David Hästbacka,
- Abstract要約: 本研究は,小言語モデルのための包括的ライフサイクル・フレームワークを定義することを目的とする。
本稿では,主,オプション,横断的なコンポーネントで構成されたモジュール型ライフサイクルモデルを提案する。
- 参考スコア(独自算出の注目度): 0.6749750044497732
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Background: The growing demand for efficient and deployable language models has led to increased interest in Small Language Models (SLMs). However, existing research remains fragmented, lacking a unified lifecycle perspective. Objective: This study aims to define a comprehensive lifecycle framework for SLMs by synthesizing insights from academic literature and practitioner sources. Method: We conducted a comprehensive survey of 36 works, analyzing and categorizing lifecycle-relevant techniques. Results: We propose a modular lifecycle model structured into main, optional, and cross-cutting components. The model captures key interconnections across stages, supporting method reuse, co-adaptation, and lifecycle-awareness. Conclusion: Our framework provides a coherent foundation for developing and maintaining SLMs, bridging theory and practice, and guiding future research and tool development.
- Abstract(参考訳): 背景: 効率的でデプロイ可能な言語モデルに対する需要が高まり、Small Language Models (SLM) への関心が高まっている。
しかし、既存の研究は断片化され、ライフサイクルの統一的な視点が欠如している。
目的:本研究は学術文献や実践資料から洞察を合成することで,SLMの包括的ライフサイクル・フレームワークを定義することを目的としている。
方法:36作品の総合的な調査を行い,ライフサイクル関連手法の分析・分類を行った。
結果: 主,オプション,横断的なコンポーネントで構成されたモジュール型ライフサイクルモデルを提案する。
このモデルは、ステージ間の重要な相互接続をキャプチャし、メソッドの再利用、共適応、ライフサイクル認識をサポートする。
結論:我々のフレームワークは,SLMの開発と維持,理論と実践のブリッジング,今後の研究とツール開発を導くための一貫性のある基盤を提供する。
関連論文リスト
- Recalibrating the Compass: Integrating Large Language Models into Classical Research Methods [0.48670895845367385]
本稿では,大規模言語モデル (LLM) がコミュニケーション研究における中核的な定量的手法をどのように変換しているかを検討する。
古典的なアプローチを置き換えるのではなく、LLMはテキストのコーディングと解釈の新しい可能性を導入している。
この論文は、分野がLLMと生成AIを統合するため、古典的な研究ロジックは依然として不可欠であると主張している。
論文 参考訳(メタデータ) (2025-05-26T01:38:02Z) - Model Merging in LLMs, MLLMs, and Beyond: Methods, Theories, Applications and Opportunities [89.40778301238642]
モデルマージは、機械学習コミュニティにおける効率的なエンパワーメント技術である。
これらの手法の体系的かつ徹底的なレビューに関する文献には大きなギャップがある。
論文 参考訳(メタデータ) (2024-08-14T16:58:48Z) - Retrieval-Enhanced Machine Learning: Synthesis and Opportunities [60.34182805429511]
検索エンハンスメントは機械学習(ML)の幅広い範囲に拡張できる
この研究は、MLの様々な領域の文献を、現在の文献から欠落している一貫した表記で合成することで、このパラダイムの正式なフレームワークであるRetrieval-Enhanced Machine Learning (REML)を導入する。
本研究の目的は、様々な分野の研究者に対して、検索強化モデルの包括的、正式に構造化された枠組みを付与し、学際的な将来の研究を促進することである。
論文 参考訳(メタデータ) (2024-07-17T20:01:21Z) - Recent Advances of Foundation Language Models-based Continual Learning: A Survey [31.171203978742447]
基礎言語モデル (LM) は自然言語処理 (NLP) とコンピュータビジョン (CV) の分野において重要な成果を上げている。
しかし、破滅的な忘れ物のため、人間のような継続的学習をエミュレートすることはできない。
従来の知識を忘れずに新しいタスクに適応できるように、様々な連続学習(CL)ベースの方法論が開発されている。
論文 参考訳(メタデータ) (2024-05-28T23:32:46Z) - Tool Learning with Large Language Models: A Survey [60.733557487886635]
大規模言語モデル(LLM)を用いたツール学習は,高度に複雑な問題に対処するLLMの能力を強化するための,有望なパラダイムとして登場した。
この分野での注目と急速な進歩にもかかわらず、現存する文献は断片化され、体系的な組織が欠如している。
論文 参考訳(メタデータ) (2024-05-28T08:01:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。