論文の概要: An Agile Method for Implementing Retrieval Augmented Generation Tools in Industrial SMEs
- arxiv url: http://arxiv.org/abs/2508.21024v1
- Date: Thu, 28 Aug 2025 17:27:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-29 18:12:02.535366
- Title: An Agile Method for Implementing Retrieval Augmented Generation Tools in Industrial SMEs
- Title(参考訳): 産業用中小企業における検索支援ツール導入のためのアジャイル手法
- Authors: Mathieu Bourdin, Anas Neumann, Thomas Paviot, Robert Pellerin, Samir Lamouri,
- Abstract要約: 本稿では,産業用中小企業におけるRAGシステムの展開を促進するための構造化アジャイル手法であるEASI-RAGを紹介する。
本手法は, 環境試験室における実環境事例研究を通じて検証した。
結果は、EASI-RAGが高速な実装、高いユーザ採用、正確な回答の提供、基礎となるデータの信頼性の向上をサポートすることを示した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Retrieval-Augmented Generation (RAG) has emerged as a powerful solution to mitigate the limitations of Large Language Models (LLMs), such as hallucinations and outdated knowledge. However, deploying RAG-based tools in Small and Medium Enterprises (SMEs) remains a challenge due to their limited resources and lack of expertise in natural language processing (NLP). This paper introduces EASI-RAG, Enterprise Application Support for Industrial RAG, a structured, agile method designed to facilitate the deployment of RAG systems in industrial SME contexts. EASI-RAG is based on method engineering principles and comprises well-defined roles, activities, and techniques. The method was validated through a real-world case study in an environmental testing laboratory, where a RAG tool was implemented to answer operators queries using data extracted from operational procedures. The system was deployed in under a month by a team with no prior RAG experience and was later iteratively improved based on user feedback. Results demonstrate that EASI-RAG supports fast implementation, high user adoption, delivers accurate answers, and enhances the reliability of underlying data. This work highlights the potential of RAG deployment in industrial SMEs. Future works include the need for generalization across diverse use cases and further integration with fine-tuned models.
- Abstract(参考訳): Retrieval-Augmented Generation (RAG) は、幻覚や時代遅れの知識など、Large Language Models (LLM) の限界を緩和する強力なソリューションとして登場した。
しかし、Small and Medium Enterprises(SME)にRAGベースのツールをデプロイすることは、リソースが限られ、自然言語処理(NLP)の専門知識が不足しているため、依然として課題である。
本稿では, EASI-RAG, Enterprise Application Support for Industrial RAGを紹介する。
EASI-RAGは手法工学の原則に基づいており、明確に定義された役割、活動、技術から構成されている。
本手法は,実環境試験室における実環境事例研究を通じて検証され,操作手順から抽出したデータを用いて演算子クエリに応答するRAGツールが実装された。
システムは、RAG経験のないチームによって1ヶ月以内にデプロイされ、その後、ユーザのフィードバックに基づいて反復的に改善された。
結果は、EASI-RAGが高速な実装、高いユーザ採用、正確な回答の提供、基礎となるデータの信頼性の向上をサポートすることを示した。
本研究は,産業中小企業におけるRAG導入の可能性を明らかにするものである。
将来の作業には、さまざまなユースケースをまたいだ一般化の必要性や、微調整されたモデルとの統合などが含まれる。
関連論文リスト
- Is Agentic RAG worth it? An experimental comparison of RAG approaches [0.07777489763207261]
検索・拡張生成システムは通常、ジェネレータと検索コンポーネントの組み合わせで定義される。
これらの欠点は「強化されたRAG」の開発を動機づけている。
大規模言語モデルの自己回帰能力の増大により,新たなパラダイムが実現した。
論文 参考訳(メタデータ) (2026-01-12T16:43:44Z) - REFRAG: Rethinking RAG based Decoding [67.4862300145604]
REFRAGは効率的なデコードフレームワークで、RAGアプリケーションの遅延を圧縮し、感知し、拡張し、改善する。
本稿では,RAG,マルチターン会話,長期文書要約など,多種多様な長文タスクを対象としたREFRAGの厳密な検証を行う。
論文 参考訳(メタデータ) (2025-09-01T03:31:44Z) - A Deep Dive into Retrieval-Augmented Generation for Code Completion: Experience on WeChat [16.059798732980347]
Retrieval-augmented Generation (RAG) は、大規模言語モデル(LLM)のコード補完能力を向上するための有望な方法として登場した。
WeChatの産業規模におけるコード補完に広く用いられているRAG法の性能について,実証的研究を行った。
論文 参考訳(メタデータ) (2025-07-24T15:36:31Z) - MSDA: Combining Pseudo-labeling and Self-Supervision for Unsupervised Domain Adaptation in ASR [59.83547898874152]
本稿では,自己教師付き学習と半教師付き技術を統合する,サンプル効率のよい2段階適応手法を提案する。
MSDAは、ASRモデルの堅牢性と一般化を強化するように設計されている。
本稿では,メタPLがASRタスクに効果的に適用可能であることを示す。
論文 参考訳(メタデータ) (2025-05-30T14:46:05Z) - Agent-UniRAG: A Trainable Open-Source LLM Agent Framework for Unified Retrieval-Augmented Generation Systems [4.683612295430957]
本稿では,最近の大規模言語モデル (LLM) エージェントの概念を用いたRAGシステムに対する新しいアプローチを提案する。
本稿では,統合検索拡張LLMシステムのためのエージェントUniRAGと呼ばれるトレーニング可能なエージェントフレームワークを提案する。
主なアイデアは、入力の複雑さに基づいてRAGタスクを段階的に解決するLLMエージェントフレームワークを設計することである。
論文 参考訳(メタデータ) (2025-05-28T16:46:31Z) - Process vs. Outcome Reward: Which is Better for Agentic RAG Reinforcement Learning [45.10424242207931]
Retrieval-augmented Generation (RAG)は大規模言語モデル(LLM)のテキスト生成能力を向上する
RAG-ProGuideは,クエリ生成,エビデンス抽出,回答生成のためのプロセスレベルの報酬を提供する高品質なデータセットである。
プロセスレベルのポリシー最適化により、提案フレームワークはLLMに対して、検索を自律的に実行し、クエリを生成し、関連する証拠を抽出し、最終的な回答を生成する権限を与える。
論文 参考訳(メタデータ) (2025-05-20T08:21:00Z) - UltraRAG: A Modular and Automated Toolkit for Adaptive Retrieval-Augmented Generation [64.79921229760332]
Retrieval-Augmented Generation (RAG) は、下流タスクにおける大規模言語モデル(LLM)の性能を大幅に向上させる。
既存のRAGツールキットは、特定のアプリケーションシナリオに適した知識適応をサポートしていない。
ワークフロー全体を通して知識適応を自動化するRAGツールキットであるUltraRAGを提案する。
論文 参考訳(メタデータ) (2025-03-31T03:49:49Z) - Agentic Retrieval-Augmented Generation: A Survey on Agentic RAG [0.8463972278020965]
大規模言語モデル(LLM)は、人間のようなテキスト生成や自然言語理解を可能にすることによって、人工知能(AI)に革命をもたらした。
Retrieval Augmented Generation (RAG) がソリューションとして登場し、リアルタイムデータ検索を統合して文脈に関連のある応答を提供することでLLMを強化している。
Agentic Retrieval-Augmented Generation (RAG)は、自律的なAIエージェントをRAGパイプラインに埋め込むことによって、これらの制限を超越する。
論文 参考訳(メタデータ) (2025-01-15T20:40:25Z) - RAGEval: Scenario Specific RAG Evaluation Dataset Generation Framework [66.93260816493553]
本稿では,様々なシナリオにまたがってRAGシステムを評価するためのフレームワークであるRAGvalを紹介する。
事実の正確性に焦点をあてて,完全性,幻覚,不適切性の3つの新しい指標を提案する。
実験結果から, RAGEvalは, 生成した試料の明瞭度, 安全性, 適合性, 豊かさにおいて, ゼロショット法とワンショット法より優れていた。
論文 参考訳(メタデータ) (2024-08-02T13:35:11Z) - FlashRAG: A Modular Toolkit for Efficient Retrieval-Augmented Generation Research [70.6584488911715]
検索増強世代(RAG)は、かなりの研究関心を集めている。
既存のRAGツールキットは、しばしば重くて柔軟であり、研究者のカスタマイズのニーズを満たすことができない。
我々のツールキットは16の高度なRAGメソッドを実装し、38のベンチマークデータセットを収集し、整理した。
論文 参考訳(メタデータ) (2024-05-22T12:12:40Z) - A Survey on RAG Meeting LLMs: Towards Retrieval-Augmented Large Language Models [71.25225058845324]
大規模言語モデル(LLM)は、言語理解と生成において革命的な能力を示している。
Retrieval-Augmented Generation (RAG)は、信頼性と最新の外部知識を提供する。
RA-LLMは、モデルの内部知識に頼るのではなく、外部および権威的な知識ベースを活用するために登場した。
論文 参考訳(メタデータ) (2024-05-10T02:48:45Z) - CRUD-RAG: A Comprehensive Chinese Benchmark for Retrieval-Augmented Generation of Large Language Models [49.16989035566899]
Retrieval-Augmented Generation (RAG)は、大規模言語モデル(LLM)の能力を高める技術である。
本稿では,大規模かつ包括的なベンチマークを構築し,様々なRAGアプリケーションシナリオにおけるRAGシステムのすべてのコンポーネントを評価する。
論文 参考訳(メタデータ) (2024-01-30T14:25:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。