論文の概要: External Reasoning: Towards Multi-Large-Language-Models Interchangeable
Assistance with Human Feedback
- arxiv url: http://arxiv.org/abs/2307.12057v2
- Date: Sat, 26 Aug 2023 19:29:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-29 22:54:06.936882
- Title: External Reasoning: Towards Multi-Large-Language-Models Interchangeable
Assistance with Human Feedback
- Title(参考訳): 外部推論:多言語モデルと人的フィードバックを両立させる
- Authors: Akide Liu
- Abstract要約: 本稿では、外部リポジトリからの知識の選択的統合により、LLM(Large Language Models)を拡張できることを提案する。
このアプローチの中心は、複数のLLMインターチェンジ支援に基づくTextbf外部推論のためのタイレッドポリシーの確立である。
結果は、Crefcomparisonにおける最先端のパフォーマンスを示し、ChatPDF.comを含む既存のソリューションを上回った。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Memory is identified as a crucial human faculty that allows for the retention
of visual and linguistic information within the hippocampus and neurons in the
brain, which can subsequently be retrieved to address real-world challenges
that arise through a lifetime of learning. The resolution of complex AI tasks
through the application of acquired knowledge represents a stride toward the
realization of artificial general intelligence. However, despite the prevalence
of Large Language Models (LLMs) like GPT-3.5 and GPT-4 \cite{brown2020language,
leiter2023chatgpt, zaitsu2023distinguishing, OpenAI2023GPT4TR} , which have
displayed remarkable capabilities in language comprehension, generation,
interaction, and reasoning, they are inhibited by constraints on context length
that preclude the processing of extensive, continually evolving knowledge
bases. This paper proposes that LLMs could be augmented through the selective
integration of knowledge from external repositories, and in doing so,
introduces a novel methodology for External Reasoning, exemplified by ChatPDF.
Central to this approach is the establishment of a tiered policy for
\textbf{External Reasoning based on Multiple LLM Interchange Assistance} in
\cref{fig:overall}, where the level of support rendered is modulated across
entry, intermediate, and advanced tiers based on the complexity of the query,
with adjustments made in response to human feedback. A comprehensive evaluation
of this methodology is conducted using multiple LLMs and the results indicate
state-of-the-art performance in \cref{comparison} , surpassing existing
solutions including ChatPDF.com. Moreover, the paper emphasizes that this
approach is more efficient compared to the direct processing of full text by
LLMs. The source code is publicly available at:
\url{https://github.com/AkideLiu/ANLP}.
- Abstract(参考訳): 記憶は、脳の海馬とニューロン内で視覚的および言語的な情報を保持できる重要な人間の機能として認識され、学習の生涯を通じて現実の課題に対処するために取り出すことができる。
取得した知識の応用による複雑なAIタスクの解決は、人工知能の実現に向けた一歩である。
しかし、GPT-3.5 や GPT-4 \cite{brown2020 Language, leiter2023chatgpt, zaitsu2023distinguishing, OpenAI2023GPT4TR} のような大規模言語モデル(LLMs)の流行にもかかわらず、言語理解、生成、相互作用、推論において顕著な能力を示しており、広範で継続的な進化する知識基盤の処理を妨げるコンテキスト長の制約によって阻害されている。
本稿では,外部リポジトリからの知識の選択的統合を通じてLLMを拡張できることを示すとともに,ChatPDFで実証した外部推論のための新しい方法論を提案する。
このアプローチの中心は、複数の llm interchange assistance} に基づく階層化されたポリシーである \textbf{external reasoning based on multiple llm interchange assistance} in \cref{fig:overall} の確立である。
この手法の総合的な評価は複数のLCMを用いて行われ、その結果はChatPDF.comを含む既存のソリューションを上回り、 \cref{comparison} における最先端のパフォーマンスを示す。
さらに,本手法は LLM による全文の直接処理よりも効率がよいことを強調した。
ソースコードは: \url{https://github.com/AkideLiu/ANLP} で公開されている。
関連論文リスト
- Empowering Language Models with Active Inquiry for Deeper Understanding [31.11672018840381]
対話型エンゲージメントを備えた大規模言語モデルを実現するために設計されたLaMAI(Language Model with Active Inquiry)を紹介する。
LaMAIは、アクティブな学習技術を使用して、最も有意義な質問を提起し、動的双方向対話を育む。
様々な複雑なデータセットにわたる実証研究は、LaMAIの有効性を実証している。
論文 参考訳(メタデータ) (2024-02-06T05:24:16Z) - Towards ASR Robust Spoken Language Understanding Through In-Context
Learning With Word Confusion Networks [68.79880423713597]
本稿では,トップ仮説のみに頼るのではなく,ASRシステムの格子出力を利用する手法を提案する。
音声質問応答と意図分類を網羅した文脈内学習実験により,LLMの音声書き起こしに対する弾力性について明らかにした。
論文 参考訳(メタデータ) (2024-01-05T17:58:10Z) - LMRL Gym: Benchmarks for Multi-Turn Reinforcement Learning with Language
Models [56.25156596019168]
本稿では,LMRL-Gymベンチマークを用いて,大規模言語モデル(LLM)のマルチターンRLの評価を行う。
我々のベンチマークは8つの異なる言語タスクで構成されており、複数ラウンドの言語相互作用が必要であり、オープンエンド対話やテキストゲームにおける様々なタスクをカバーする。
論文 参考訳(メタデータ) (2023-11-30T03:59:31Z) - DIVKNOWQA: Assessing the Reasoning Ability of LLMs via Open-Domain
Question Answering over Knowledge Base and Text [73.68051228972024]
大きな言語モデル(LLM)は印象的な生成能力を示すが、内部知識に依存すると幻覚に悩まされる。
検索拡張LDMは、外部知識においてLLMを基盤とする潜在的な解決策として出現している。
論文 参考訳(メタデータ) (2023-10-31T04:37:57Z) - Let Models Speak Ciphers: Multiagent Debate through Embeddings [84.20336971784495]
この問題を解決するためにCIPHER(Communicative Inter-Model Protocol Through Embedding Representation)を導入する。
自然言語から逸脱することで、CIPHERはモデルの重みを変更することなく、より広い範囲の情報を符号化する利点を提供する。
このことは、LLM間の通信における代替の"言語"としての埋め込みの優越性と堅牢性を示している。
論文 参考訳(メタデータ) (2023-10-10T03:06:38Z) - Exploring the Integration Strategies of Retriever and Large Language
Models [84.79153029646541]
検索されたパスと大きな言語モデル(LLM)の統合は、オープンドメインの質問応答の改善に大きく貢献している。
本稿では,検索したパスをLLMと組み合わせて回答生成を向上させる方法について検討する。
論文 参考訳(メタデータ) (2023-08-24T05:26:54Z) - RRAML: Reinforced Retrieval Augmented Machine Learning [10.94680155282906]
我々はReinforced Retrieval Augmented Machine Learning (RRAML)と呼ばれる新しいフレームワークを提案する。
RRAMLは、大規模な言語モデルの推論機能と、巨大なユーザが提供するデータベースから目的に構築された検索者によって取得された情報を統合する。
この論文で概説された研究課題は、AIの分野に大きな影響を与える可能性があると信じている。
論文 参考訳(メタデータ) (2023-07-24T13:51:19Z) - ChatABL: Abductive Learning via Natural Language Interaction with
ChatGPT [72.83383437501577]
大規模言語モデル(LLM)は、最近数学的な能力において大きな可能性を証明している。
LLMは現在、認識、言語理解、推論能力のブリッジングに困難を抱えている。
本稿では, LLMを帰納学習フレームワークに統合する新しい手法を提案する。
論文 参考訳(メタデータ) (2023-04-21T16:23:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。