論文の概要: StackRAG Agent: Improving Developer Answers with Retrieval-Augmented Generation
- arxiv url: http://arxiv.org/abs/2406.13840v1
- Date: Wed, 19 Jun 2024 21:07:35 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-21 18:15:51.702324
- Title: StackRAG Agent: Improving Developer Answers with Retrieval-Augmented Generation
- Title(参考訳): StackRAG Agent: Retrieval-Augmented Generationによる開発者回答の改善
- Authors: Davit Abrahamyan, Fatemeh H. Fard,
- Abstract要約: StackRAGは,大規模言語モデルに基づく検索拡張マルチエージェント生成ツールである。
SOからの知識を集約して、生成された回答の信頼性を高める、という2つの世界を組み合わせています。
最初の評価は、生成された回答が正確で正確で、関連があり、有用であることを示している。
- 参考スコア(独自算出の注目度): 2.225268436173329
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Developers spend much time finding information that is relevant to their questions. Stack Overflow has been the leading resource, and with the advent of Large Language Models (LLMs), generative models such as ChatGPT are used frequently. However, there is a catch in using each one separately. Searching for answers is time-consuming and tedious, as shown by the many tools developed by researchers to address this issue. On the other, using LLMs is not reliable, as they might produce irrelevant or unreliable answers (i.e., hallucination). In this work, we present StackRAG, a retrieval-augmented Multiagent generation tool based on LLMs that combines the two worlds: aggregating the knowledge from SO to enhance the reliability of the generated answers. Initial evaluations show that the generated answers are correct, accurate, relevant, and useful.
- Abstract(参考訳): 開発者は質問に関連する情報を見つけるのに多くの時間を費やします。
Stack Overflowは主要なリソースであり、Large Language Models(LLMs)の出現に伴い、ChatGPTのような生成モデルが頻繁に使用される。
ただし、それぞれ別々に使用する場合はキャッチアップがある。
研究者がこの問題に対処するために開発した多くのツールが示すように、答えを探すのに時間と手間がかかります。
一方、LSMを使うことは信頼できない、あるいは信頼できない答え(幻覚)をもたらす可能性があるため、信頼できない。
本稿では,LLMをベースとした検索強化マルチエージェント生成ツールStackRAGについて述べる。
最初の評価は、生成された回答が正確で正確で、関連があり、有用であることを示している。
関連論文リスト
- Enhancing LLM's Ability to Generate More Repository-Aware Unit Tests Through Precise Contextual Information Injection [4.367526927436771]
プロンプトエンジニアリングによって導かれる大規模言語モデル(LLM)は、幅広いタスクを扱う能力に注目を集めている。
LLMは、プロジェクトのグローバルな文脈に対する認識の欠如により、焦点メソッドや関数の単体テストを生成する際に幻覚を示す可能性がある。
我々は,レポジトリ対応の単体テストを生成するLLMの能力を向上するRATesterを提案する。
論文 参考訳(メタデータ) (2025-01-13T15:43:36Z) - Multi-Agents Based on Large Language Models for Knowledge-based Visual Question Answering [6.6897007888321465]
知識に基づく視覚質問応答のための投票フレームワークを提案する。
チーム内のさまざまなレベルのスタッフをシミュレートする3つのエージェントを設計し、利用可能なツールをレベルに応じて割り当てます。
OK-VQA と A-OKVQA の実験により,本手法は,それぞれ2.2 と 1.0 の他のベースラインよりも優れていることが示された。
論文 参考訳(メタデータ) (2024-12-24T11:24:56Z) - Benchmarking Multimodal Retrieval Augmented Generation with Dynamic VQA Dataset and Self-adaptive Planning Agent [102.31558123570437]
マルチモーダル大規模言語モデル(MLLM)に固有の「ハロシン化」問題を緩和する上で,mRAG(Multimodal Retrieval Augmented Generation)が重要な役割を果たしている。
マルチモーダル検索のための自己適応型計画エージェントOmniSearchを提案する。
論文 参考訳(メタデータ) (2024-11-05T09:27:21Z) - Language Models can Self-Lengthen to Generate Long Texts [74.96074422345806]
本稿では,Self-Lengthenというイノベーティブな反復学習フレームワークを紹介する。
補助的なデータやプロプライエタリなモデルを必要としない、大規模言語モデルの本質的な知識とスキルのみを活用する。
ベンチマークと人的評価の実験により、Self-Lengthenは長文生成において既存の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2024-10-31T13:47:10Z) - MemoRAG: Moving towards Next-Gen RAG Via Memory-Inspired Knowledge Discovery [24.38640001674072]
Retrieval-Augmented Generation (RAG)は、検索ツールを利用して外部データベースにアクセスする。
既存のRAGシステムは主に簡単な質問応答タスクに有効である。
本稿では,MemoRAGを提案する。
論文 参考訳(メタデータ) (2024-09-09T13:20:31Z) - PersonaRAG: Enhancing Retrieval-Augmented Generation Systems with User-Centric Agents [0.9135658693137204]
本稿では,リアルタイムなユーザデータとインタラクションに基づく検索と生成にユーザ中心のエージェントを取り入れた新しいフレームワークであるPersonaRAGを紹介する。
その結果,ユーザ適応型情報検索システムにおける有望な方向性が示唆された。
論文 参考訳(メタデータ) (2024-07-12T16:18:00Z) - CodeRAG-Bench: Can Retrieval Augment Code Generation? [78.37076502395699]
検索拡張生成を用いたコード生成の系統的,大規模な解析を行う。
まず、コード生成タスクの3つのカテゴリを含む総合的な評価ベンチマークであるCodeRAG-Benchをキュレートする。
CodeRAG-Bench上のトップパフォーマンスモデルについて、1つまたは複数のソースから検索したコンテキストを提供することにより検討する。
論文 参考訳(メタデータ) (2024-06-20T16:59:52Z) - Multi-LLM QA with Embodied Exploration [55.581423861790945]
未知環境における質問応答におけるマルチエンボディードLEMエクスプローラ(MELE)の利用について検討する。
複数のLSMベースのエージェントが独立して家庭用環境に関する質問を探索し、回答する。
各問合せに対して1つの最終回答を生成するために,異なるアグリゲーション手法を解析する。
論文 参考訳(メタデータ) (2024-06-16T12:46:40Z) - Towards Robust Temporal Reasoning of Large Language Models via a Multi-Hop QA Dataset and Pseudo-Instruction Tuning [73.51314109184197]
大規模言語モデル(LLM)には時間的知識の概念を理解することが不可欠である。
本稿では,複数質問応答と複数ホップの時間的推論に焦点をあてた複雑な時間的質問応答データセットであるComplex-TRを提案する。
論文 参考訳(メタデータ) (2023-11-16T11:49:29Z) - Active Retrieval Augmented Generation [123.68874416084499]
外部知識資源から情報を取得することで、大きな言語モデル(LM)を拡張することは、有望な解決策である。
ほとんどの既存の検索拡張LMは、入力に基づいて一度だけ情報を検索する検索と生成のセットアップを採用している。
本稿では,将来的な内容を予測するために,文の予測を反復的に利用する汎用手法であるフォワード・フォワード・アクティブ・レトリヴァル・ジェネレーション・ジェネレーション(FLARE)を提案する。
論文 参考訳(メタデータ) (2023-05-11T17:13:40Z) - Enhancing Multi-modal and Multi-hop Question Answering via Structured
Knowledge and Unified Retrieval-Generation [33.56304858796142]
マルチモーダルなマルチホップ質問応答は、異なるモーダルから複数の入力ソースを推論することで質問に答える。
既存の手法は、しばしば別々に証拠を検索し、その後言語モデルを使用して、得られた証拠に基づいて回答を生成する。
本稿では,これらの問題に対処するため,構造化知識と統一検索生成(RG)アプローチを提案する。
論文 参考訳(メタデータ) (2022-12-16T18:12:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。