論文の概要: A Survey on Collaborating Small and Large Language Models for Performance, Cost-effectiveness, Cloud-edge Privacy, and Trustworthiness
- arxiv url: http://arxiv.org/abs/2510.13890v1
- Date: Tue, 14 Oct 2025 04:16:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-17 21:15:14.515894
- Title: A Survey on Collaborating Small and Large Language Models for Performance, Cost-effectiveness, Cloud-edge Privacy, and Trustworthiness
- Title(参考訳): パフォーマンス、コスト効率、クラウドエッジプライバシ、信頼性のための小規模・大規模言語モデルのコラボレーションに関する調査
- Authors: Fali Wang, Jihai Chen, Shuhua Yang, Ali Al-Lawati, Linli Tang, Hui Liu, Suhang Wang,
- Abstract要約: 大規模言語モデル(LLM)は、多くのドメインやアプリケーションに進化しているが、高い微調整コスト、推論レイテンシ、限定されたエッジデプロイ可能性、信頼性の懸念に直面している。
最近の研究は、SLMの特殊化と効率をLLMの一般化と推論と融合させ、多様な目的を満たすための協調的な枠組みを探求している。
性能向上,コスト効率,クラウドエッジプライバシ,信頼性の4つの目標を掲げた分類法を提案する。
- 参考スコア(独自算出の注目度): 24.733069038933703
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models (LLMs) have advanced many domains and applications but face high fine-tuning costs, inference latency, limited edge deployability, and reliability concerns. Small language models (SLMs), compact, efficient, and adaptable, offer complementary remedies. Recent work explores collaborative frameworks that fuse SLMs' specialization and efficiency with LLMs' generalization and reasoning to meet diverse objectives across tasks and deployment scenarios. Motivated by these developments, this paper presents a systematic survey of SLM-LLM collaboration organized by collaboration objectives. We propose a taxonomy with four goals: performance enhancement, cost-effectiveness, cloud-edge privacy, and trustworthiness. Within this framework, we review representative methods, summarize design paradigms, and outline open challenges and future directions toward efficient, secure, and scalable SLM-LLM collaboration.
- Abstract(参考訳): 大規模言語モデル(LLM)は、多くのドメインやアプリケーションに進化しているが、高い微調整コスト、推論レイテンシ、限定されたエッジデプロイ可能性、信頼性の懸念に直面している。
小型言語モデル(SLM)はコンパクトで効率的で適応性があり、補完的な改善を提供する。
最近の研究は、SLMの特殊化と効率をLLMの一般化と推論と融合させ、タスクやデプロイメントシナリオにまたがる様々な目的を満たすための協調的なフレームワークを探求している。
そこで本研究では,SLM-LLMコラボレーションの体系的調査を行った。
性能向上,コスト効率,クラウドエッジプライバシ,信頼性の4つの目標を掲げた分類法を提案する。
本フレームワーク内では,代表的手法をレビューし,設計パラダイムを要約し,オープンな課題と,効率的でセキュアでスケーラブルなSLM-LLMコラボレーションに向けた今後の方向性を概説する。
関連論文リスト
- Efficient LLM Collaboration via Planning [56.081879390960204]
小規模で大規模なモデルでは、プランナーと実行担当者として交代で行動し、タスクを協調的に解決するために、多段階のカスケードでプランを交換する。
私たちはCOPEが大規模プロプライエタリモデルに匹敵するパフォーマンスを実現し,推論APIのコストを大幅に削減できることを実証した。
論文 参考訳(メタデータ) (2025-06-13T08:35:50Z) - Small Language Models: Architectures, Techniques, Evaluation, Problems and Future Adaptation [0.0]
小言語モデル(SLM)は、多種多様な言語タスクをうまく実行できることから、大きな注目を集めている。
本研究では,SLMの完全な評価,設計フレームワークの重視,トレーニングアプローチ,モデルサイズと複雑性の低減技術について述べる。
本研究では, SLM に適用された最適化手法を整理し, プルーニング, 量子化, モデル圧縮などの戦略を包含する新たな分類システムを提案する。
論文 参考訳(メタデータ) (2025-05-26T05:29:47Z) - A Survey on Collaborative Mechanisms Between Large and Small Language Models [5.1159419867547085]
大規模言語モデル(LLM)は強力なAI機能を提供するが、高いリソースコストとレイテンシのためにデプロイメントの課題に直面している。
小型言語モデル(SLM)は、性能の低下を犠牲にして効率性とデプロイ性を提供する。
論文 参考訳(メタデータ) (2025-05-12T11:48:42Z) - A Trustworthy Multi-LLM Network: Challenges,Solutions, and A Use Case [59.58213261128626]
複数の大規模言語モデル(LLM)を信頼性のあるマルチLLMネットワーク(MultiLLMN)に接続するブロックチェーン対応協調フレームワークを提案する。
このアーキテクチャは、複雑なネットワーク最適化問題に対する最も信頼性が高く高品質な応答の協調評価と選択を可能にする。
論文 参考訳(メタデータ) (2025-05-06T05:32:46Z) - Towards Harnessing the Collaborative Power of Large and Small Models for Domain Tasks [20.370633539861746]
大規模言語モデル(LLM)は目覚ましい能力を示しているが、膨大な量のデータと計算資源を必要とする。
対照的に、より小さなモデル(SM)は特定のドメインに適応し、より効率的である。
論文 参考訳(メタデータ) (2025-04-24T10:24:35Z) - Corex: Pushing the Boundaries of Complex Reasoning through Multi-Model Collaboration [83.4031923134958]
Corexは,大規模言語モデルを自律エージェントに変換する,新たな汎用戦略スイートだ。
人間の振る舞いにインスパイアされたCorexは、Debate、Review、Retrieveモードといった多様なコラボレーションパラダイムによって構成されている。
我々は,複数のLDMを協調的に演奏することで,既存の手法に比べて性能が著しく向上することが実証された。
論文 参考訳(メタデータ) (2023-09-30T07:11:39Z) - Building Cooperative Embodied Agents Modularly with Large Language
Models [104.57849816689559]
本研究では, 分散制御, 生の知覚観察, コストのかかるコミュニケーション, 様々な実施環境下でインスタンス化された多目的タスクといった課題に対処する。
我々は,LLMの常識知識,推論能力,言語理解,テキスト生成能力を活用し,認知に触発されたモジュラーフレームワークにシームレスに組み込む。
C-WAH と TDW-MAT を用いた実験により, GPT-4 で駆動される CoELA が, 強い計画に基づく手法を超越し, 創発的な効果的なコミュニケーションを示すことを示した。
論文 参考訳(メタデータ) (2023-07-05T17:59:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。