論文の概要: Advancing Risk and Quality Assurance: A RAG Chatbot for Improved Regulatory Compliance
- arxiv url: http://arxiv.org/abs/2507.16711v1
- Date: Tue, 22 Jul 2025 15:46:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-23 21:34:14.191981
- Title: Advancing Risk and Quality Assurance: A RAG Chatbot for Improved Regulatory Compliance
- Title(参考訳): リスクと品質保証の強化:規制コンプライアンス改善のためのRAGチャットボット
- Authors: Lars Hillebrand, Armin Berger, Daniel Uedelhoven, David Berghaus, Ulrich Warning, Tim Dilmaghani, Bernd Kliem, Thomas Schmid, Rüdiger Loitz, Rafet Sifa,
- Abstract要約: 高度に規制された産業におけるリスク・アンド・クオリティ(R&Q)の保証には、複雑な規制フレームワークの定期的なナビゲーションが必要である。
本稿では,Large Language Models(LLMs)とハイブリッド検索,R&Qクエリ処理の強化を両立させた新しい検索拡張生成(RAG)システムを提案する。
- 参考スコア(独自算出の注目度): 0.8501032945185112
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Risk and Quality (R&Q) assurance in highly regulated industries requires constant navigation of complex regulatory frameworks, with employees handling numerous daily queries demanding accurate policy interpretation. Traditional methods relying on specialized experts create operational bottlenecks and limit scalability. We present a novel Retrieval Augmented Generation (RAG) system leveraging Large Language Models (LLMs), hybrid search and relevance boosting to enhance R&Q query processing. Evaluated on 124 expert-annotated real-world queries, our actively deployed system demonstrates substantial improvements over traditional RAG approaches. Additionally, we perform an extensive hyperparameter analysis to compare and evaluate multiple configuration setups, delivering valuable insights to practitioners.
- Abstract(参考訳): 高度に規制された産業におけるリスク・アンド・クオリティ(R&Q)の保証には、複雑な規制の枠組みを常にナビゲートする必要がある。
専門の専門家に依存した従来の手法は、運用上のボトルネックを発生させ、スケーラビリティを制限します。
本稿では,Large Language Models(LLMs)とハイブリッド検索,R&Qクエリ処理の強化を両立させた新しい検索拡張生成(RAG)システムを提案する。
124のエキスパートアノテートされた実世界のクエリを評価した結果,本システムは従来のRAGアプローチよりも大幅に改善されていることがわかった。
さらに、複数の設定設定を比較して評価するために、広範なハイパーパラメータ分析を行い、実践者に貴重な洞察を提供する。
関連論文リスト
- Re-ranking Reasoning Context with Tree Search Makes Large Vision-Language Models Stronger [51.01841635655944]
大規模視覚言語モデル(LVLM)の最近の進歩は、視覚質問応答(VQA)タスクのパフォーマンスを著しく改善している。
既存の手法は、推論例による知識の不足や、抽出された知識からの不規則な応答など、依然として課題に直面している。
我々は、Reasoning Context-enriched knowledge baseとTree Search re-level methodを構築し、LVLMを強化したRCTSと呼ばれるマルチモーダルRAGフレームワークを提案する。
論文 参考訳(メタデータ) (2025-06-09T14:00:57Z) - Hybrid AI for Responsive Multi-Turn Online Conversations with Novel Dynamic Routing and Feedback Adaptation [2.4830284216463]
本稿では,RAGとインテントベースの缶詰応答を統合した新しいハイブリッドフレームワークを提案する。
本フレームワークでは,対話コンテキストマネージャを用いて,マルチターンインタラクションにおけるコヒーレンスを保証し,インテントを洗練するためのフィードバックループを組み込む。
実験結果から,提案手法は高い精度 (95%) と低レイテンシ (180ms) のバランスが得られた。
論文 参考訳(メタデータ) (2025-06-02T17:59:27Z) - Towards Trustworthy Retrieval Augmented Generation for Large Language Models: A Survey [92.36487127683053]
Retrieval-Augmented Generation (RAG)は、AIGC(AIGC)の課題に対処するために設計された高度な技術である。
RAGは信頼性と最新の外部知識を提供し、幻覚を減らし、幅広いタスクで関連するコンテキストを保証する。
RAGの成功と可能性にもかかわらず、最近の研究により、RAGパラダイムはプライバシーの懸念、敵対的攻撃、説明責任の問題など、新たなリスクももたらしていることが示されている。
論文 参考訳(メタデータ) (2025-02-08T06:50:47Z) - PIKE-RAG: sPecIalized KnowledgE and Rationale Augmented Generation [16.081923602156337]
sPecIalized KnowledgEとRationale Augmentation Generation(PIKE-RAG)を紹介する。
専門知識を抽出し,理解し,適用することに注力するとともに,LCMを正確な応答に向けて漸進的に操るコヒーレントな合理性を構築した。
この戦略的なアプローチは、産業アプリケーションの進化する要求を満たすために調整されたRAGシステムの段階的開発と強化のためのロードマップを提供する。
論文 参考訳(メタデータ) (2025-01-20T15:39:39Z) - A Survey of Query Optimization in Large Language Models [10.255235456427037]
RAGは、動的に検索し、最新の関連情報を活用することによって、大規模言語モデルの限界を緩和する。
QOは重要な要素として現れ、RAGの検索段階の有効性を決定する上で重要な役割を担っている。
論文 参考訳(メタデータ) (2024-12-23T13:26:04Z) - Unanswerability Evaluation for Retrieval Augmented Generation [74.3022365715597]
UAEval4RAGは、RAGシステムが解答不能なクエリを効果的に処理できるかどうかを評価するために設計されたフレームワークである。
我々は、6つの未解決カテゴリを持つ分類を定義し、UAEval4RAGは、多様で挑戦的なクエリを自動的に合成する。
論文 参考訳(メタデータ) (2024-12-16T19:11:55Z) - Query Optimization for Parametric Knowledge Refinement in Retrieval-Augmented Large Language Models [26.353428245346166]
Extract-Refine-Retrieve-Read (ERRR)フレームワークは、Retrieval-Augmented Generation (RAG)システムにおける事前検索情報ギャップを埋めるように設計されている。
RAGで使用される従来のクエリ最適化手法とは異なり、ERRRフレームワークはLarge Language Models (LLM) から知識を抽出することから始まる。
論文 参考訳(メタデータ) (2024-11-12T14:12:45Z) - An Adaptive Framework for Generating Systematic Explanatory Answer in Online Q&A Platforms [62.878616839799776]
質問応答(QA)性能を向上させるために設計された,革新的なフレームワークであるSynthRAGを提案する。
SynthRAGは動的コンテンツの構造化に適応的なアウトラインを用いることで従来のモデルを改善する。
Zhihuプラットフォーム上のオンラインデプロイメントでは、SynthRAGの回答が注目すべきユーザエンゲージメントを実現していることが明らかになった。
論文 参考訳(メタデータ) (2024-10-23T09:14:57Z) - RAGEval: Scenario Specific RAG Evaluation Dataset Generation Framework [66.93260816493553]
本稿では,様々なシナリオにまたがってRAGシステムを評価するためのフレームワークであるRAGvalを紹介する。
事実の正確性に焦点をあてて,完全性,幻覚,不適切性の3つの新しい指標を提案する。
実験結果から, RAGEvalは, 生成した試料の明瞭度, 安全性, 適合性, 豊かさにおいて, ゼロショット法とワンショット法より優れていた。
論文 参考訳(メタデータ) (2024-08-02T13:35:11Z) - LLM4Rerank: LLM-based Auto-Reranking Framework for Recommendations [51.76373105981212]
リグレードはレコメンデーションシステムにおいて重要な要素であり、レコメンデーションアルゴリズムの出力を精査する上で重要な役割を果たす。
そこで我々は,様々な格付け基準をシームレスに統合する包括的格付けフレームワークを提案する。
カスタマイズ可能な入力機構も統合されており、言語モデルのフォーカスを特定の再配置のニーズに合わせることができる。
論文 参考訳(メタデータ) (2024-06-18T09:29:18Z) - CRUD-RAG: A Comprehensive Chinese Benchmark for Retrieval-Augmented Generation of Large Language Models [49.16989035566899]
Retrieval-Augmented Generation (RAG)は、大規模言語モデル(LLM)の能力を高める技術である。
本稿では,大規模かつ包括的なベンチマークを構築し,様々なRAGアプリケーションシナリオにおけるRAGシステムのすべてのコンポーネントを評価する。
論文 参考訳(メタデータ) (2024-01-30T14:25:32Z) - From RAG to QA-RAG: Integrating Generative AI for Pharmaceutical
Regulatory Compliance Process [0.0]
製薬業界における規制の遵守は、複雑で明るいガイドラインを通じてナビゲートする必要がある。
これらの課題に対処するため,本研究では,生成型AIと検索型拡張生成(RAG)手法を紹介する。
本稿では,QA-RAGの構造と性能評価について詳述し,規制コンプライアンス領域の可能性を強調した。
論文 参考訳(メタデータ) (2024-01-26T08:23:29Z) - Better Retrieval May Not Lead to Better Question Answering [59.1892787017522]
システムの性能を改善するための一般的なアプローチは、取得したコンテキストの品質をIRステージから改善することである。
マルチホップ推論を必要とするオープンドメインのQAデータセットであるStrategyQAでは、この一般的なアプローチは驚くほど非効率である。
論文 参考訳(メタデータ) (2022-05-07T16:59:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。