論文の概要: A Layered Architecture for Developing and Enhancing Capabilities in Large Language Model-based Software Systems
- arxiv url: http://arxiv.org/abs/2411.12357v1
- Date: Tue, 19 Nov 2024 09:18:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-20 13:38:36.347049
- Title: A Layered Architecture for Developing and Enhancing Capabilities in Large Language Model-based Software Systems
- Title(参考訳): 大規模言語モデルに基づくソフトウェアシステムにおける機能開発と強化のための階層アーキテクチャ
- Authors: Dawen Zhang, Xiwei Xu, Chen Wang, Zhenchang Xing, Robert Mao,
- Abstract要約: 本稿では,Large Language Models (LLM) ソフトウェアシステムの開発を異なるレイヤにまとめる階層アーキテクチャを提案する。
これらのレイヤと機能を整合させることで、このフレームワークは、効果的かつ効率的な方法で機能の体系的な実装を奨励します。
- 参考スコア(独自算出の注目度): 18.615283725693494
- License:
- Abstract: Significant efforts has been made to expand the use of Large Language Models (LLMs) beyond basic language tasks. While the generalizability and versatility of LLMs have enabled widespread adoption, evolving demands in application development often exceed their native capabilities. Meeting these demands may involve a diverse set of methods, such as enhancing creativity through either inference temperature adjustments or creativity-provoking prompts. Selecting the right approach is critical, as different methods lead to trade-offs in engineering complexity, scalability, and operational costs. This paper introduces a layered architecture that organizes LLM software system development into distinct layers, each characterized by specific attributes. By aligning capabilities with these layers, the framework encourages the systematic implementation of capabilities in effective and efficient ways that ultimately supports desired functionalities and qualities. Through practical case studies, we illustrate the utility of the framework. This work offers developers actionable insights for selecting suitable technologies in LLM-based software system development, promoting robustness and scalability.
- Abstract(参考訳): LLM(Large Language Models)の使用を、基本的な言語タスクを超えて拡大するための重要な取り組みがなされている。
LLMの汎用性と汎用性は広く採用されているが、アプリケーション開発における要求の進化は、しばしば彼らのネイティブ機能を超えている。
これらの要求を満たすには、推論温度調整や創造性を誘発するプロンプトを通じて創造性を向上するなど、様々な方法が関与する可能性がある。
異なる手法がエンジニアリングの複雑さ、スケーラビリティ、運用コストのトレードオフにつながるため、正しいアプローチを選択することは極めて重要です。
本稿では,LCMソフトウェアシステム開発を異なる層に分類し,それぞれの特性を特徴付ける階層構造を提案する。
これらの層と機能を整合させることで、このフレームワークは、望まれる機能や品質をサポートする効果的で効率的な方法で機能の体系的な実装を奨励します。
実践的なケーススタディを通じて,フレームワークの有用性を解説する。
この作業は、LLMベースのソフトウェア開発で適切な技術を選択するための実用的な洞察を与え、堅牢性とスケーラビリティを促進する。
関連論文リスト
- A Survey: Collaborative Hardware and Software Design in the Era of Large Language Models [16.250856588632637]
大規模言語モデル(LLM)の急速な発展は、人工知能の分野を大きく変えた。
これらのモデルは多様なアプリケーションに統合され、研究と産業の両方に影響を及ぼす。
本稿では,大規模言語モデルの特徴と制約に対処するために,ハードウェアとソフトウェアの共同設計手法について検討する。
論文 参考訳(メタデータ) (2024-10-08T21:46:52Z) - Cognitive LLMs: Towards Integrating Cognitive Architectures and Large Language Models for Manufacturing Decision-making [51.737762570776006]
LLM-ACTRは、ヒトに適応し、多目的な意思決定を提供する新しいニューロシンボリックアーキテクチャである。
我々のフレームワークは、ACT-Rの内部決定過程の知識を潜在神経表現として抽出し、組み込む。
デザイン・フォー・マニュファクチャリング・タスクに関する我々の実験は、タスク性能の向上と基礎的意思決定能力の向上を両立させたものである。
論文 参考訳(メタデータ) (2024-08-17T11:49:53Z) - A Comprehensive Review of Multimodal Large Language Models: Performance and Challenges Across Different Tasks [74.52259252807191]
MLLM(Multimodal Large Language Models)は、単一のモダリティシステムの能力を超えた現実世界のアプリケーションの複雑さに対処する。
本稿では,自然言語,視覚,音声などのマルチモーダルタスクにおけるMLLMの応用を体系的に整理する。
論文 参考訳(メタデータ) (2024-08-02T15:14:53Z) - Meta Reasoning for Large Language Models [58.87183757029041]
大規模言語モデル(LLM)の新規かつ効率的なシステムプロセッシング手法であるメタ推論プロンプト(MRP)を導入する。
MRPは、各タスクの特定の要求に基づいて異なる推論メソッドを動的に選択し、適用するようLLMに誘導する。
総合的なベンチマークによりMPPの有効性を評価する。
論文 参考訳(メタデータ) (2024-06-17T16:14:11Z) - Large Language Model Agent as a Mechanical Designer [7.136205674624813]
本研究では,FEMモジュールと事前学習LLMを統合する新しい手法を提案する。
FEMモジュールはそれぞれの設計を評価し、重要なフィードバックを提供し、LLMにドメイン固有のトレーニングを必要とせずに継続的に学習し、計画し、生成し、設計を最適化するよう指示する。
その結果, LLMをベースとしたエージェントは, 自然言語仕様に準拠したトラスを最大90%の確率で生成できることがわかった。
論文 参考訳(メタデータ) (2024-04-26T16:41:24Z) - LLMs as On-demand Customizable Service [8.440060524215378]
階層型分散大言語モデル(LLM)の概念を導入する。
階層型アプローチを導入することで、LLMをカスタマイズ可能なサービスとしてオンデマンドでアクセスできるようにする。
階層型 LLM の概念は,LLM の能力を活用するために,広範かつクラウドソースのユーザ基盤を向上すると考えられる。
論文 参考訳(メタデータ) (2024-01-29T21:24:10Z) - If LLM Is the Wizard, Then Code Is the Wand: A Survey on How Code
Empowers Large Language Models to Serve as Intelligent Agents [81.60906807941188]
大型言語モデル(LLM)は、自然言語と形式言語(コード)の組み合わせに基づいて訓練される
コードは、標準構文、論理一貫性、抽象化、モジュール性を備えた高レベルの目標を実行可能なステップに変換する。
論文 参考訳(メタデータ) (2024-01-01T16:51:20Z) - Redefining Developer Assistance: Through Large Language Models in Software Ecosystem [0.5580128181112308]
本稿では,インストラクションチューニングによって開発されたDevAssistLlamaを紹介し,ソフトウェア関連自然言語クエリの処理を支援する。
DevAssistLlamaは、特に複雑な技術ドキュメントの扱いに長けており、ソフトウェア固有のタスクにおける開発者の能力を向上させる。
論文 参考訳(メタデータ) (2023-12-09T18:02:37Z) - MAgIC: Investigation of Large Language Model Powered Multi-Agent in
Cognition, Adaptability, Rationality and Collaboration [102.41118020705876]
大規模言語モデル(LLM)は自然言語処理の分野で大きな進歩を遂げている。
アプリケーションがマルチエージェント環境に拡張されるにつれ、包括的な評価フレームワークの必要性が高まっている。
この研究は、マルチエージェント設定内でLLMを評価するために特別に設計された新しいベンチマークフレームワークを導入している。
論文 参考訳(メタデータ) (2023-11-14T21:46:27Z) - CRAFT: Customizing LLMs by Creating and Retrieving from Specialized
Toolsets [75.64181719386497]
大規模言語モデル(LLM)のためのツール作成・検索フレームワークであるCRAFTを提案する。
タスク用に特別にキュレートされたツールセットを作成し、複雑なタスクを解決する能力を高めるためにこれらのセットからツールを取得するコンポーネントをLLMに装備する。
本手法はフレキシブルに設計されており,既製のLCMを細かな調整なしに未確認領域やモダリティに適応するためのプラグアンドプレイ方式を提供する。
論文 参考訳(メタデータ) (2023-09-29T17:40:26Z) - Multi-Agent Collaboration: Harnessing the Power of Intelligent LLM
Agents [0.0]
本稿では,マルチエージェントシステムのパワーを活用した大規模言語モデル(LLM)の能力向上のための新しいフレームワークを提案する。
本フレームワークでは,複数の知的エージェントコンポーネントがそれぞれ特有な属性と役割を持つ協調環境を導入し,複雑なタスクをより効率的に効率的に処理する。
論文 参考訳(メタデータ) (2023-06-05T23:55:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。