論文の概要: Agent Skill Framework: Perspectives on the Potential of Small Language Models in Industrial Environments
- arxiv url: http://arxiv.org/abs/2602.16653v1
- Date: Wed, 18 Feb 2026 17:52:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-19 15:58:30.671458
- Title: Agent Skill Framework: Perspectives on the Potential of Small Language Models in Industrial Environments
- Title(参考訳): エージェントスキルフレームワーク:産業環境における小言語モデルの可能性
- Authors: Yangjie Xu, Lujun Li, Lama Sleem, Niccolo Gentile, Yewei Song, Yiqun Wang, Siming Ji, Wenbo Wu, Radu State,
- Abstract要約: この研究は、エージェントスキルプロセスの形式的な数学的定義を導入し、その後、様々な大きさの言語モデルの体系的な評価を行った。
その結果、小型モデルは信頼性の高いスキル選択に苦しむ一方で、中程度のサイズのSLM(約12B~30B)はエージェントスキルアプローチから大きく恩恵を受けることがわかった。
- 参考スコア(独自算出の注目度): 14.079091139464175
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Agent Skill framework, now widely and officially supported by major players such as GitHub Copilot, LangChain, and OpenAI, performs especially well with proprietary models by improving context engineering, reducing hallucinations, and boosting task accuracy. Based on these observations, an investigation is conducted to determine whether the Agent Skill paradigm provides similar benefits to small language models (SLMs). This question matters in industrial scenarios where continuous reliance on public APIs is infeasible due to data-security and budget constraints requirements, and where SLMs often show limited generalization in highly customized scenarios. This work introduces a formal mathematical definition of the Agent Skill process, followed by a systematic evaluation of language models of varying sizes across multiple use cases. The evaluation encompasses two open-source tasks and a real-world insurance claims data set. The results show that tiny models struggle with reliable skill selection, while moderately sized SLMs (approximately 12B - 30B) parameters) benefit substantially from the Agent Skill approach. Moreover, code-specialized variants at around 80B parameters achieve performance comparable to closed-source baselines while improving GPU efficiency. Collectively, these findings provide a comprehensive and nuanced characterization of the capabilities and constraints of the framework, while providing actionable insights for the effective deployment of Agent Skills in SLM-centered environments.
- Abstract(参考訳): Agent Skillフレームワークは、GitHub Copilot、LangChain、OpenAIといったメジャーなプレーヤーによって広く公式にサポートされているが、コンテキストエンジニアリングの改善、幻覚の低減、タスクの正確性の向上によって、特にプロプライエタリなモデルでうまく機能している。
これらの観測に基づいて,エージェントスキルパラダイムが小言語モデル(SLM)に類似した利点をもたらすかどうかを調査する。
この問題は、データセキュリティと予算制約の要求により、パブリックAPIへの継続的依存が実現不可能な産業シナリオや、高度にカスタマイズされたシナリオにおいて、SLMが限定的な一般化を示す場合において問題となる。
この研究は、エージェントスキルプロセスの形式的な数学的定義を導入し、その後、複数のユースケースで異なるサイズの言語モデルを体系的に評価する。
評価には、オープンソースの2つのタスクと、現実の保険請求データセットが含まれる。
その結果、小型モデルは信頼性の高いスキル選択に苦しむ一方で、中程度のサイズのSLM(約12B~30B)パラメータはエージェントスキルアプローチから大きく恩恵を受けることがわかった。
さらに、約80Bパラメータのコード特化変種は、GPU効率を改善しながら、クローズソースベースラインに匹敵するパフォーマンスを達成する。
これらの知見は総合的に,フレームワークの機能と制約を包括的かつ曖昧に評価するとともに,SLM中心の環境にエージェントスキルを効果的に展開するための実用的な洞察を提供する。
関連論文リスト
- Agent Skills for Large Language Models: Architecture, Acquisition, Security, and the Path Forward [5.124116559484265]
モノリシックな言語モデルからモジュール化された、スキルを持ったエージェントへの移行は、大規模言語モデル(LLM)の実際のデプロイ方法に決定的な変化をもたらす。
すべての手続き的知識をモデルウェイト内にエンコードするのではなく、エージェントスキルは、再トレーニングせずに動的機能拡張を可能にする。
この調査は、エージェントスキルのランドスケープを包括的に扱うもので、ここ数ヶ月で急速に進化してきた。
論文 参考訳(メタデータ) (2026-02-12T21:33:25Z) - Youtu-LLM: Unlocking the Native Agentic Potential for Lightweight Large Language Models [78.73992315826035]
ネイティブエージェントインテリジェンスと高い計算効率を調和させる軽量言語モデルであるYoutu-LLMを紹介する。
Youtu-LLMは、スクラッチから体系的に推論と計画能力の育成まで事前訓練されている。
論文 参考訳(メタデータ) (2025-12-31T04:25:11Z) - WebSailor-V2: Bridging the Chasm to Proprietary Agents via Synthetic Data and Scalable Reinforcement Learning [73.91893534088798]
WebSailorは、この重要な機能を組み込むように設計された、完全なポストトレーニング方法論である。
我々のアプローチは、構造化サンプリングと情報難読化によって、新しい、不確実なタスクを生成することである。
WebSailorは複雑な情報検索タスクにおいて、すべてのオープンソースエージェントを著しく上回る。
論文 参考訳(メタデータ) (2025-09-16T17:57:03Z) - Thinking Longer, Not Larger: Enhancing Software Engineering Agents via Scaling Test-Time Compute [61.00662702026523]
より大規模なモデルではなく、推論時間の増加を活用する統合されたテスト時間計算スケーリングフレームワークを提案する。
当社のフレームワークには,内部TTCと外部TTCの2つの補完戦略が組み込まれている。
当社の textbf32B モデルは,DeepSeek R1 671B や OpenAI o1 など,はるかに大きなモデルを上回る 46% の課題解決率を実現している。
論文 参考訳(メタデータ) (2025-03-31T07:31:32Z) - Enhancing Talent Employment Insights Through Feature Extraction with LLM Finetuning [0.0]
遠隔作業の可利用性、報酬構造、教育要件、作業経験の好みなどの変数を識別する堅牢なパイプラインを開発する。
本手法は,従来の解析ツールの限界を克服するために,意味的チャンキング,検索拡張生成(RAG),微調整DistilBERTモデルを組み合わせる。
細調整されたモデルの包括的評価を行い、その強度、限界、スケーリングの可能性について分析する。
論文 参考訳(メタデータ) (2025-01-13T19:49:49Z) - Coalitions of Large Language Models Increase the Robustness of AI Agents [3.216132991084434]
大規模言語モデル(LLM)は、私たちがデジタルシステムと対話する方法を根本的に変えました。
LLMは強力で、いくつかの創発的な特性を示すことができるが、AIエージェントによって実行されるすべてのサブタスクでうまく機能するのに苦労する。
個別のサブタスクで特別性能を示す事前訓練されたLLMの連立系が,単一モデルエージェントの性能に適合するかどうかを評価する。
論文 参考訳(メタデータ) (2024-08-02T16:37:44Z) - MAgIC: Investigation of Large Language Model Powered Multi-Agent in Cognition, Adaptability, Rationality and Collaboration [98.18244218156492]
大規模言語モデル(LLM)は、非常に高度な自然言語処理を持つ。
アプリケーションがマルチエージェント環境に拡大するにつれて、包括的な評価フレームワークの必要性が生じる。
この研究は、マルチエージェント設定内でLLMを評価するための新しい競合ベースのベンチマークフレームワークを導入している。
論文 参考訳(メタデータ) (2023-11-14T21:46:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。