論文の概要: EffGen: Enabling Small Language Models as Capable Autonomous Agents
- arxiv url: http://arxiv.org/abs/2602.00887v1
- Date: Sat, 31 Jan 2026 20:24:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 19:28:33.452872
- Title: EffGen: Enabling Small Language Models as Capable Autonomous Agents
- Title(参考訳): EffGen: 自律エージェントとしての小さな言語モデルの実現
- Authors: Gaurav Srivastava, Aafiya Hussain, Chi Wang, Yingyan Celine Lin, Xuan Wang,
- Abstract要約: effGenは、小さな言語モデル(SLM)に最適化されたエージェントフレームワークである
1) コンテクストを70~80%圧縮するプロンプト最適化によるツールコールの強化,(2) 依存関係に基づいて複雑なクエリを並列あるいはシーケンシャルなサブタスクに分解するインテリジェントタスク分解,(3) 短期,長期,ベクトルベースのストレージを組み合わせた統一メモリシステム。
- 参考スコア(独自算出の注目度): 21.17719258111762
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Most existing language model agentic systems today are built and optimized for large language models (e.g., GPT, Claude, Gemini) via API calls. While powerful, this approach faces several limitations including high token costs and privacy concerns for sensitive applications. We introduce effGen, an open-source agentic framework optimized for small language models (SLMs) that enables effective, efficient, and secure local deployment (pip install effgen). effGen makes four major contributions: (1) Enhanced tool-calling with prompt optimization that compresses contexts by 70-80% while preserving task semantics, (2) Intelligent task decomposition that breaks complex queries into parallel or sequential subtasks based on dependencies, (3) Complexity-based routing using five factors to make smart pre-execution decisions, and (4) Unified memory system combining short-term, long-term, and vector-based storage. Additionally, effGen unifies multiple agent protocols (MCP, A2A, ACP) for cross-protocol communication. Results on 13 benchmarks show effGen outperforms LangChain, AutoGen, and Smolagents with higher success rates, faster execution, and lower memory. Our results reveal that prompt optimization and complexity routing have complementary scaling behavior: optimization benefits SLMs more (11.2% gain at 1.5B vs 2.4% at 32B), while routing benefits large models more (3.6% at 1.5B vs 7.9% at 32B), providing consistent gains across all scales when combined. effGen (https://effgen.org/) is released under the MIT License, ensuring broad accessibility for research and commercial use. Our framework code is publicly available at https://github.com/ctrl-gaurav/effGen.
- Abstract(参考訳): 現在の既存の言語モデルエージェントシステムは、API呼び出しを通じて、大きな言語モデル(GPT、Claude、Geminiなど)に構築され、最適化されています。
このアプローチは強力だが、高トークンコストや機密性の高いアプリケーションに対するプライバシー上の懸念など、いくつかの制限に直面している。
我々は,小規模言語モデル(SLM)に最適化されたオープンソースのエージェントフレームワークであるeffGenを紹介した。
effGenは,(1)タスクセマンティクスの保存中にコンテキストを70~80%圧縮するプロンプト最適化によるツールコールの強化,(2)複雑なクエリを依存関係に基づいて並列あるいはシーケンシャルなサブタスクに分解するインテリジェントタスク分解,(3)スマートな事前実行決定を行う5つの要因を用いた複雑性ベースのルーティング,(4)短期,長期,ベクトルベースのストレージを組み合わせた統一メモリシステム。
さらに、effGenはクロスプロトコル通信のための複数のエージェントプロトコル(MCP、A2A、ACP)を統合する。
13のベンチマークの結果、effGenはLangChain、AutoGen、Smolagentよりも高い成功率、高速な実行、低メモリでパフォーマンスを示している。
最適化は1.5Bで11.2%、32Bで2.4%、ルーティングは1.5Bで3.6%、32Bで7.9%、各スケールで一貫したゲインを提供する。
effGen (https://effgen.org/)はMITライセンス下でリリースされており、研究と商用利用の幅広いアクセシビリティを保証する。
私たちのフレームワークコードはhttps://github.com/ctrl-gaurav/effGen.comで公開されています。
関連論文リスト
- AgentSM: Semantic Memory for Agentic Text-to-SQL [16.68006461152765]
Agent Semantic Memory (AgentSM)は、解釈可能なセマンティックメモリを構築し、利用する。
AgentSMは、Spider 2.0ベンチマークにおいて、平均トークン使用量と軌道長をそれぞれ25%と35%削減する。
また、クモ2.0 Liteベンチマークで44.8%の最先端の精度に達することで、実行精度も向上した。
論文 参考訳(メタデータ) (2026-01-22T07:31:19Z) - SCOPE: Prompt Evolution for Enhancing Agent Effectiveness [53.75986399936395]
大規模言語モデル(LLM)エージェントは、大規模で動的なコンテキストを生成する環境にますますデプロイされている。
エージェントはこのコンテキストにアクセスできますが、静的なプロンプトには効果的に管理するメカニズムがありません。
textbfSCOPE (Self-evolving Context Optimization via Prompt Evolution) を導入する。
本稿では,戦術的特異性(即時誤りの解消)と戦略的汎用性(長期原則の進化)のバランスをとるデュアルストリーム機構を提案する。
論文 参考訳(メタデータ) (2025-12-17T12:25:05Z) - MemSearcher: Training LLMs to Reason, Search and Manage Memory via End-to-End Reinforcement Learning [73.27233666920618]
本稿では,メモリを反復的に保持し,現在のターンと組み合わせたエージェントワークフローであるMemSearcherを提案する。
それぞれのターンで、MemSearcherはユーザーの質問をメモリに融合させ、推論トレースを生成し、検索アクションを実行し、メモリを更新してタスクの解決に必要な情報のみを保持する。
我々は,MemSearcher Agents の推論,検索戦略,メモリ管理を協調的に最適化する,エンドツーエンドの RL フレームワークである Multi-context GRPO を紹介する。
論文 参考訳(メタデータ) (2025-11-04T18:27:39Z) - dInfer: An Efficient Inference Framework for Diffusion Language Models [54.80918957287927]
拡散に基づく大規模言語モデル (dLLM) は自己回帰(AR) LLM に代わる有望な代替品として登場した。
本稿では、dLLM推論のための効率的かつ効率的なフレームワークであるdInferについて述べる。
論文 参考訳(メタデータ) (2025-10-09T16:19:42Z) - Graph of Agents: Principled Long Context Modeling by Emergent Multi-Agent Collaboration [9.151759069858924]
本稿では,モデルに依存しない長期コンテキストモデリング問題を圧縮問題として定式化するフレームワークを提案する。
この目的を最大化する入力依存の協調構造を動的に構築するグラフ・オブ・エージェント(GoA)を提案する。
GoAはLongBenchの128KコンテキストウィンドウであるLlama 3.1 8Bを超え、有効コンテキスト長が劇的に増加した。
論文 参考訳(メタデータ) (2025-09-26T04:15:40Z) - CodeAgents: A Token-Efficient Framework for Codified Multi-Agent Reasoning in LLMs [16.234259194402163]
マルチエージェント推論を符号化し、マルチエージェントシステムにおける構造化されたトークン効率の計画を可能にするプロンプトフレームワークであるCodeAgentsを紹介する。
その結果, 計画性能は一貫した改善がみられ, 基本となる自然言語よりも3~36ポイントの絶対的な向上が見られた。
論文 参考訳(メタデータ) (2025-07-04T02:20:19Z) - AgentGroupChat-V2: Divide-and-Conquer Is What LLM-Based Multi-Agent System Need [35.88121318813734]
大規模言語モデルに基づくマルチエージェントシステムは、社会シミュレーションや複雑なタスク解決領域において大きな可能性を示している。
AgentGroupChat-V2は、3つのコアイノベーションを通じてこれらの課題に対処する新しいフレームワークです。
AgentGroupChat-V2のさまざまなドメインでの優れたパフォーマンスを示す実験。
論文 参考訳(メタデータ) (2025-06-18T13:24:04Z) - Learning Adaptive Parallel Reasoning with Language Models [70.1745752819628]
本稿では,適応並列推論(Adaptive Parallel Reasoning, APR)を提案する。
APRは、spawn()とjoin()操作を使用して適応的なマルチスレッド推論を可能にすることで、既存の推論メソッドを一般化する。
鍵となる革新は、親と子の両方の推論スレッドを最適化して、事前に定義された推論構造を必要とせずにタスクの成功率を高める、エンドツーエンドの強化学習戦略である。
論文 参考訳(メタデータ) (2025-04-21T22:29:02Z) - S*: Test Time Scaling for Code Generation [55.11863577956177]
コード生成のための最初のハイブリッドテストタイムスケーリングフレームワークであるS*を提案する。
S*は生成されたコードのカバレッジと選択精度を大幅に改善する。
論文 参考訳(メタデータ) (2025-02-20T09:18:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。