論文の概要: ReservoirChat: Interactive Documentation Enhanced with LLM and Knowledge Graph for ReservoirPy
- arxiv url: http://arxiv.org/abs/2507.05279v1
- Date: Fri, 04 Jul 2025 08:48:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-09 16:34:37.175911
- Title: ReservoirChat: Interactive Documentation Enhanced with LLM and Knowledge Graph for ReservoirPy
- Title(参考訳): ReservoirChat: LLMによるインタラクティブドキュメンテーションとReservoirPyのための知識グラフ
- Authors: Virgile Boraud, Yannis Bendi-Ouis, Paul Bernard, Xavier Hinaut,
- Abstract要約: 本稿では,ReservoirPyライブラリを用いたコード開発を支援するために,LLM(Large Language Models)の機能向上を目的としたツールを紹介する。
検索型生成(RAG)と知識グラフを通じて外部知識を組み込むことにより,幻覚の低減と,生成した応答の事実的正確性の向上を目指す。
- 参考スコア(独自算出の注目度): 1.6874375111244329
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce a tool designed to improve the capabilities of Large Language Models (LLMs) in assisting with code development using the ReservoirPy library, as well as in answering complex questions in the field of Reservoir Computing. By incorporating external knowledge through Retrieval-Augmented Generation (RAG) and knowledge graphs, our approach aims to reduce hallucinations and increase the factual accuracy of generated responses. The system provides an interactive experience similar to ChatGPT, tailored specifically for ReservoirPy, enabling users to write, debug, and understand Python code while accessing reliable domain-specific insights. In our evaluation, while proprietary models such as ChatGPT-4o and NotebookLM performed slightly better on general knowledge questions, our model outperformed them on coding tasks and showed a significant improvement over its base model, Codestral-22B.
- Abstract(参考訳): 本稿では,ReservoirPyライブラリを用いたコード開発の支援や,Reservoir Computingの分野における複雑な質問に答えるための,LLM(Large Language Models)の機能向上を目的としたツールを紹介する。
検索型生成(RAG)と知識グラフを通じて外部知識を組み込むことにより,幻覚の低減と,生成した応答の事実的正確性の向上を目指す。
このシステムは、ReservoirPy用に特別に設計されたChatGPTに似たインタラクティブなエクスペリエンスを提供し、ユーザーは信頼できるドメイン固有の洞察にアクセスしながら、Pythonのコードを書き、デバッグし、理解することができる。
評価では,ChatGPT-4o や NotebookLM などのプロプライエタリなモデルは一般知識問題では若干優れていたが,コーディングタスクでは性能が優れ,ベースモデルである Codestral-22B よりも大幅に向上した。
関連論文リスト
- GenKI: Enhancing Open-Domain Question Answering with Knowledge Integration and Controllable Generation in Large Language Models [75.25348392263676]
オープンドメイン質問応答(OpenQA)は自然言語処理(NLP)の基盤である。
我々は,知識統合と制御可能生成を探求し,OpenQAの性能向上を目的としたGenKIという新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-26T08:18:33Z) - debug-gym: A Text-Based Environment for Interactive Debugging [55.11603087371956]
大規模言語モデル(LLM)は、コーディングタスクにますます依存している。
LLMは、タスクに関連する情報を集めるために対話的にAを探索する能力の恩恵を受けることができると仮定する。
対話型符号化環境において,LLMベースのエージェントを開発するためのテキスト環境,すなわちデバッグジャムを提案する。
論文 参考訳(メタデータ) (2025-03-27T14:43:28Z) - DeepNote: Note-Centric Deep Retrieval-Augmented Generation [72.70046559930555]
Retrieval-Augmented Generation (RAG)は質問応答のための大規模言語モデル(LLM)における事実誤りと幻覚を緩和する
我々は、ノート中心の適応検索により、知識ソースの奥深くで堅牢な探索を実現する適応RAGフレームワークであるDeepNoteを開発した。
論文 参考訳(メタデータ) (2024-10-11T14:03:29Z) - Think-on-Graph 2.0: Deep and Faithful Large Language Model Reasoning with Knowledge-guided Retrieval Augmented Generation [14.448198170932226]
Think-on-Graph 2.0 (ToG-2) は、構造化されていない知識ソースと構造化されていない知識ソースの両方から情報を反復的に取得するハイブリッドRAGフレームワークである。
ToG-2は、グラフ検索とコンテキスト検索の交互に、質問に関連する詳細な手がかりを検索する。
GPT-3.5で7つの知識集約データセットのうち6つで、全体的なSOTA(State-of-the-art)のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2024-07-15T15:20:40Z) - CodeRAG-Bench: Can Retrieval Augment Code Generation? [78.37076502395699]
検索拡張生成を用いたコード生成の系統的,大規模な解析を行う。
まず、コード生成タスクの3つのカテゴリを含む総合的な評価ベンチマークであるCodeRAG-Benchをキュレートする。
CodeRAG-Bench上のトップパフォーマンスモデルについて、1つまたは複数のソースから検索したコンテキストを提供することにより検討する。
論文 参考訳(メタデータ) (2024-06-20T16:59:52Z) - EVOR: Evolving Retrieval for Code Generation [17.46870626157077]
検索拡張コード生成のための既存のパイプラインは、単一のソースを持つ静的ナレッジベースを使用している。
我々は,クエリと多様な知識ベースを同期的に進化させる新しいパイプラインEVORを開発した。
論文 参考訳(メタデータ) (2024-02-19T17:37:28Z) - Using an LLM to Help With Code Understanding [13.53616539787915]
大規模言語モデル(LLM)は、コードを書くプロセスに革命をもたらしています。
プラグインはOpenAIのGPT-3.5-turboモデルに対して,ユーザが明示的なプロンプトを書かなくても4つの高レベルリクエストをクエリする。
本システムの評価は,32名の被験者を対象に行ったユーザスタディで行われ,本プラグインがWeb検索よりもタスク完了に有効であることが確認された。
論文 参考訳(メタデータ) (2023-07-17T00:49:06Z) - Exploring Large Language Model for Graph Data Understanding in Online
Job Recommendations [63.19448893196642]
本稿では,大規模言語モデルが提供するリッチな文脈情報と意味表現を利用して行動グラフを解析する新しいフレームワークを提案する。
この機能を利用することで、個々のユーザに対してパーソナライズされた、正確なジョブレコメンデーションが可能になる。
論文 参考訳(メタデータ) (2023-07-10T11:29:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。