論文の概要: SymbioticRAG: Enhancing Document Intelligence Through Human-LLM Symbiotic Collaboration
- arxiv url: http://arxiv.org/abs/2505.02418v1
- Date: Mon, 05 May 2025 07:24:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-06 18:49:35.58753
- Title: SymbioticRAG: Enhancing Document Intelligence Through Human-LLM Symbiotic Collaboration
- Title(参考訳): 共生RAG:人間-LLM共生コラボレーションによるドキュメントインテリジェンス向上
- Authors: Qiang Sun, Tingting Bi, Sirui Li, Eun-Jung Holden, Paul Duuring, Kai Niu, Wei Liu,
- Abstract要約: 我々は,人間と機械の双方向学習関係を確立することにより,検索・拡張生成(RAG)システムを再構築する新しいフレームワークであるtextbfSymbioticRAGを提案する。
現在のRAGシステムにおける2つの重要な課題に対処する: 関連性決定の人間中心の性質と、クエリの定式化における「無意識の非能力」からのユーザの進歩である。
- 参考スコア(独自算出の注目度): 9.80387022972714
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present \textbf{SymbioticRAG}, a novel framework that fundamentally reimagines Retrieval-Augmented Generation~(RAG) systems by establishing a bidirectional learning relationship between humans and machines. Our approach addresses two critical challenges in current RAG systems: the inherently human-centered nature of relevance determination and users' progression from "unconscious incompetence" in query formulation. SymbioticRAG introduces a two-tier solution where Level 1 enables direct human curation of retrieved content through interactive source document exploration, while Level 2 aims to build personalized retrieval models based on captured user interactions. We implement Level 1 through three key components: (1)~a comprehensive document processing pipeline with specialized models for layout detection, OCR, and extraction of tables, formulas, and figures; (2)~an extensible retriever module supporting multiple retrieval strategies; and (3)~an interactive interface that facilitates both user engagement and interaction data logging. We experiment Level 2 implementation via a retriever strategy incorporated LLM summarized user intention from user interaction logs. To maintain high-quality data preparation, we develop a human-on-the-loop validation interface that improves pipeline output while advancing research in specialized extraction tasks. Evaluation across three scenarios (literature review, geological exploration, and education) demonstrates significant improvements in retrieval relevance and user satisfaction compared to traditional RAG approaches. To facilitate broader research and further advancement of SymbioticRAG Level 2 implementation, we will make our system openly accessible to the research community.
- Abstract(参考訳): 本稿では、人間と機械の双方向学習関係を確立することにより、検索・拡張生成〜(RAG)システムを根本的に再定義する新しいフレームワークである「textbf{SymbioticRAG}」を提案する。
現在のRAGシステムにおける2つの重要な課題に対処する: 関連性決定の人間中心の性質と、クエリの定式化における「無意識の非能力」からのユーザの進歩である。
共生RAGは、インタラクティブなソースドキュメント探索を通じて、検索されたコンテンツの直接的キュレーションを可能にする2層ソリューションを導入し、レベル2は、キャプチャされたユーザインタラクションに基づいたパーソナライズされた検索モデルの構築を目指している。
1) レイアウト検出, OCR, テーブル, 公式, フィギュアの抽出, (2) 複数検索戦略をサポートする拡張可能な検索モジュール, (3) ユーザエンゲージメントとインタラクションデータのロギングを容易にする対話型インターフェースを備えた総合的なドキュメント処理パイプラインである。
ユーザインタラクションログからユーザ意図を要約したLCMを組み込んだレトリバー戦略を用いてレベル2の実装を実験する。
高品質なデータ準備を維持するため,特殊な抽出タスクの研究を進めつつ,パイプライン出力を改善するヒューマン・オン・ザ・ループ・バリデーション・インタフェースを開発した。
3つのシナリオ(文献レビュー、地質調査、教育)にわたる評価は、従来のRAGアプローチと比較して、検索の妥当性とユーザ満足度が著しく向上したことを示している。
共生RAGレベル2実装のより広範な研究の促進とさらなる進歩を図るため,研究コミュニティに開放的にアクセスできるようにする。
関連論文リスト
- Reinforcing Compositional Retrieval: Retrieving Step-by-Step for Composing Informative Contexts [67.67746334493302]
大規模言語モデル(LLM)は、多くのタスクにまたがる顕著な機能を示してきたが、複雑なタスクを扱うために外部のコンテキストに依存していることが多い。
我々は、このプロセスをマルコフ決定プロセス(MDP)としてモデル化するトリエンコーダシーケンシャルレトリバーを提案する。
提案手法は,サンプル間の依存関係を明示的にモデル化することの重要性を強調し,ベースラインを一貫して大幅に上回ることを示す。
論文 参考訳(メタデータ) (2025-04-15T17:35:56Z) - C-3PO: Compact Plug-and-Play Proxy Optimization to Achieve Human-like Retrieval-Augmented Generation [13.120930059424975]
C-3POは、レトリバーと大規模言語モデル間の通信を容易にするプロキシ中心のフレームワークである。
我々のフレームワークは、RAGパイプライン全体を協調的に最適化する3つの特殊エージェントを実装している。
論文 参考訳(メタデータ) (2025-02-10T07:04:32Z) - DEEPER: Dense Electroencephalography Passage Retrieval [6.084958172018792]
本稿では,明示的なクエリ変換の必要性を回避した新しいフレームワークであるDEEPER Dense EEG Passage Retrievalを紹介する。
提案手法では,高密度検索アーキテクチャを用いて,脳波信号とテキストパスを効果的に比較可能な統合意味空間を構築する。
論文 参考訳(メタデータ) (2024-12-09T17:41:25Z) - ACE: A Generative Cross-Modal Retrieval Framework with Coarse-To-Fine Semantic Modeling [53.97609687516371]
我々は、エンドツーエンドのクロスモーダル検索のための先駆的なジェネリッククロスモーダル rEtrieval framework (ACE) を提案する。
ACEは、クロスモーダル検索における最先端のパフォーマンスを達成し、Recall@1の強いベースラインを平均15.27%上回る。
論文 参考訳(メタデータ) (2024-06-25T12:47:04Z) - Towards a Unified Transformer-based Framework for Scene Graph Generation
and Human-object Interaction Detection [116.21529970404653]
本稿では,Transformerアーキテクチャに基づく一段階統一モデルであるSG2HOI+を紹介する。
本手法では,SGGとHOI検出のタスクをシームレスに統一する2つの対話型階層変換器を用いる。
提案手法は最先端のHOI法と比較して競争性能が向上する。
論文 参考訳(メタデータ) (2023-11-03T07:25:57Z) - Dual-Feedback Knowledge Retrieval for Task-Oriented Dialogue Systems [42.17072207835827]
本稿では,レトリバーを利用して関連する知識を検索し,システム応答を生成するレトリバー・ジェネレータアーキテクチャを提案する。
提案手法は,3つのベンチマークデータセットを用いた実験結果から,タスク指向の対話タスクにおいて優れた性能を示す。
論文 参考訳(メタデータ) (2023-10-23T03:21:11Z) - ReSel: N-ary Relation Extraction from Scientific Text and Tables by
Learning to Retrieve and Select [53.071352033539526]
学術論文からN-ary関係を抽出する問題について考察する。
提案手法であるReSelは,このタスクを2段階のプロシージャに分解する。
3つの科学的情報抽出データセットに対する実験により、ReSelは最先端のベースラインを大きく上回っていることがわかった。
論文 参考訳(メタデータ) (2022-10-26T02:28:02Z) - RLIP: Relational Language-Image Pre-training for Human-Object
Interaction Detection [32.20132357830726]
言語画像事前学習(Language- Image Pre-Training、LIPR)は、エンティティと関係記述の両方を活用するコントラスト事前学習の戦略である。
RLIP-ParSeと呼ばれるこれらのコントリビューションの利点は、ゼロショット、少数ショット、微調整のHOI検出の改善、およびノイズアノテーションからの堅牢性の向上である。
論文 参考訳(メタデータ) (2022-09-05T07:50:54Z) - Symbiotic Adversarial Learning for Attribute-based Person Search [86.7506832053208]
本稿では,共生学習の枠組みとして,共生学習の基盤に2つのGANを配置する。
具体的には、2種類の生成的敵ネットワークがトレーニングプロセスを通して協調的に学習する。
論文 参考訳(メタデータ) (2020-07-19T07:24:45Z) - Cascaded Human-Object Interaction Recognition [175.60439054047043]
マルチステージで粗大なHOI理解のためのカスケードアーキテクチャを提案する。
各段階で、インスタンスローカライゼーションネットワークは、HOI提案を段階的に洗練し、インタラクション認識ネットワークにフィードする。
慎重に設計された人間中心の関係機能により、これらの2つのモジュールは効果的な相互作用理解に向けて協調的に機能する。
論文 参考訳(メタデータ) (2020-03-09T17:05:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。