論文の概要: Prompting Frameworks for Large Language Models: A Survey
- arxiv url: http://arxiv.org/abs/2311.12785v1
- Date: Tue, 21 Nov 2023 18:51:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-22 23:26:38.830018
- Title: Prompting Frameworks for Large Language Models: A Survey
- Title(参考訳): 大規模言語モデルのためのプロンプティングフレームワーク:サーベイ
- Authors: Xiaoxia Liu, Jingyi Wang, Jun Sun, Xiaohan Yuan, Guoliang Dong, Peng
Di, Wenhai Wang, Dongxia Wang
- Abstract要約: 大規模言語モデル(LLM)は、学術と産業の両方で大きな進歩を遂げた。
Prompting Framework(PF)は、大規模言語モデルとの相互作用を管理し、単純化し、促進するフレームワークである。
- 参考スコア(独自算出の注目度): 22.770904267189586
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Since the launch of ChatGPT, a powerful AI Chatbot developed by OpenAI, large
language models (LLMs) have made significant advancements in both academia and
industry, bringing about a fundamental engineering paradigm shift in many
areas. While LLMs are powerful, it is also crucial to best use their power
where "prompt'' plays a core role. However, the booming LLMs themselves,
including excellent APIs like ChatGPT, have several inherent limitations: 1)
temporal lag of training data, and 2) the lack of physical capabilities to
perform external actions. Recently, we have observed the trend of utilizing
prompt-based tools to better utilize the power of LLMs for downstream tasks,
but a lack of systematic literature and standardized terminology, partly due to
the rapid evolution of this field. Therefore, in this work, we survey related
prompting tools and promote the concept of the "Prompting Framework" (PF), i.e.
the framework for managing, simplifying, and facilitating interaction with
large language models. We define the lifecycle of the PF as a hierarchical
structure, from bottom to top, namely: Data Level, Base Level, Execute Level,
and Service Level. We also systematically depict the overall landscape of the
emerging PF field and discuss potential future research and challenges. To
continuously track the developments in this area, we maintain a repository at
https://github.com/lxx0628/Prompting-Framework-Survey, which can be a useful
resource sharing platform for both academic and industry in this field.
- Abstract(参考訳): OpenAIが開発した強力なAIチャットボットであるChatGPTのローンチ以来、大規模言語モデル(LLM)は学術と産業の両方で大幅に進歩し、多くの分野において基本的なエンジニアリングパラダイムシフトをもたらしている。
LLMは強力だが、"prompt"が中核的な役割を担っているパワーを最大限に活用することが重要である。
しかし、ChatGPTのような優れたAPIを含む急激なLLM自体には、いくつかの固有の制限がある。
1)訓練データの時間的遅れ、及び
2) 外部アクションを実行するための物理的能力の欠如。
近年,ダウンストリームタスクにllmのパワーをよりよく活用するために,プロンプトベースのツールを利用する傾向が観察されているが,この分野の急速な発展によって,体系的な文献や標準化された用語が欠如している。
そこで本研究では,関連するプロンプトツールを調査し,PF(Prompting Framework)の概念,すなわち,大規模言語モデルとのインタラクションの管理,簡素化,促進を行うフレームワークについて検討する。
私たちはPFのライフサイクルを、下位から上位まで、すなわちデータレベル、ベースレベル、実行レベル、サービスレベルという階層構造として定義します。
また,新たなPF分野の全体像を体系的に描き,今後の研究や課題についても論じる。
この分野での開発を継続的に追跡するために、私たちはhttps://github.com/lxx0628/Prompting-Framework-Surveyにリポジトリを保持します。
関連論文リスト
- The Compressor-Retriever Architecture for Language Model OS [20.56093501980724]
オペレーティングシステム(OS)のコアコンポーネントとして言語モデルを用いるという概念について検討する。
このようなLM OSを実現する上で重要な課題は、寿命の長いコンテキストを管理し、セッション間のステートフルネスを確保することだ。
本稿では,生涯のコンテキスト管理のために設計されたモデル非依存アーキテクチャであるコンプレッサー・レトリバーを紹介する。
論文 参考訳(メタデータ) (2024-09-02T23:28:15Z) - ULLME: A Unified Framework for Large Language Model Embeddings with Generation-Augmented Learning [72.90823351726374]
我々は,LLM間の双方向の注目を可能にする,柔軟でプラグアンドプレイな実装であるLULME(Unified framework for Large Language Model Embedding)を紹介した。
また,テキスト埋め込みタスクのLLMを向上する新しい微調整手法であるGRL(Generation-augmented Representation Learning)を提案する。
フレームワークの柔軟性と有効性を示すために、異なるバックボーンアーキテクチャを持つULLMEから事前訓練された3つのモデルをリリースする。
論文 参考訳(メタデータ) (2024-08-06T18:53:54Z) - Can Long-Context Language Models Subsume Retrieval, RAG, SQL, and More? [54.667202878390526]
長文言語モデル(LCLM)は、従来、検索システムやデータベースといった外部ツールに依存していたタスクへのアプローチに革命をもたらす可能性がある。
実世界のタスクのベンチマークであるLOFTを導入し、文脈内検索と推論においてLCLMの性能を評価するために設計された数百万のトークンを出力する。
以上の結果からLCLMは,これらのタスクを明示的に訓練したことがないにも関わらず,最先端の検索システムやRAGシステムと競合する驚くべき能力を示した。
論文 参考訳(メタデータ) (2024-06-19T00:28:58Z) - From LLMs to Actions: Latent Codes as Bridges in Hierarchical Robot Control [58.72492647570062]
我々は,制限を克服する代替アーキテクチャとして,Learningable Latent Codes as Bridges (LCB)を導入した。
methodoutperforms baselines that leverage pure language as the interface layer on tasks that requires reasoning and multi-step behaviors。
論文 参考訳(メタデータ) (2024-05-08T04:14:06Z) - Cross-Data Knowledge Graph Construction for LLM-enabled Educational Question-Answering System: A Case Study at HCMUT [2.8000537365271367]
大規模言語モデル(LLM)は活発な研究トピックとして現れている。
LLMはイベントの記憶、新しい情報の導入、ドメイン固有の問題や幻覚への対処において課題に直面している。
本稿では,複数のデータソースから知識グラフを自動的に構築する手法を提案する。
論文 参考訳(メタデータ) (2024-04-14T16:34:31Z) - ChatGPT Alternative Solutions: Large Language Models Survey [0.0]
大規模言語モデル(LLM)はこの領域における研究貢献の急増に火をつけた。
近年、学術と産業のダイナミックな相乗効果が見られ、LLM研究の分野を新たな高地へと押し上げた。
この調査は、ジェネレーティブAIの現状をよく理解し、さらなる探索、強化、イノベーションの機会に光を当てている。
論文 参考訳(メタデータ) (2024-03-21T15:16:50Z) - LMRL Gym: Benchmarks for Multi-Turn Reinforcement Learning with Language
Models [56.25156596019168]
本稿では,LMRL-Gymベンチマークを用いて,大規模言語モデル(LLM)のマルチターンRLの評価を行う。
我々のベンチマークは8つの異なる言語タスクで構成されており、複数ラウンドの言語相互作用が必要であり、オープンエンド対話やテキストゲームにおける様々なタスクをカバーする。
論文 参考訳(メタデータ) (2023-11-30T03:59:31Z) - LAMM: Language-Assisted Multi-Modal Instruction-Tuning Dataset,
Framework, and Benchmark [81.42376626294812]
本稿では,Language-Assisted Multi-Modalインストラクションチューニングデータセット,フレームワーク,ベンチマークを提案する。
我々の目標は、MLLMのトレーニングと評価のための成長するエコシステムとしてLAMMを確立することです。
本稿では,2次元および3次元視覚のための広範囲な視覚タスクをカバーする包括的データセットとベンチマークを提案する。
論文 参考訳(メタデータ) (2023-06-11T14:01:17Z) - Inner Monologue: Embodied Reasoning through Planning with Language
Models [81.07216635735571]
大規模言語モデル(LLM)は自然言語処理以外の領域に適用できる。
具体化された環境でのLLMの計画には、何をすべきかだけでなく、どのように、いつ行うべきかを考える必要がある。
環境フィードバックを活用することで、LLMはロボット制御シナリオにおいてよりリッチな処理と計画を行うことができる内部モノローグを形成することができる。
論文 参考訳(メタデータ) (2022-07-12T15:20:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。