論文の概要: HLTCOE at LiveRAG: GPT-Researcher using ColBERT retrieval
- arxiv url: http://arxiv.org/abs/2506.22356v1
- Date: Fri, 27 Jun 2025 16:08:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-30 21:12:23.279514
- Title: HLTCOE at LiveRAG: GPT-Researcher using ColBERT retrieval
- Title(参考訳): LiveRAGにおけるHLTCOE:ColBERT検索を用いたGPT-Researcher
- Authors: Kevin Duh, Eugene Yang, Orion Weller, Andrew Yates, Dawn Lawrie,
- Abstract要約: HLT LiveRAG は GPT-Researcher フレームワークを用いて質問の文脈を調査した。
検索システムはColBERTのバイエンコーダアーキテクチャであり、多くの高密度トークンを持つパスを表す。
このシステムは、スコア1.07のLiveRAG自動評価で5位となった。
- 参考スコア(独自算出の注目度): 28.417602875360124
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: The HLTCOE LiveRAG submission utilized the GPT-researcher framework for researching the context of the question, filtering the returned results, and generating the final answer. The retrieval system was a ColBERT bi-encoder architecture, which represents a passage with many dense tokens. Retrieval used a local, compressed index of the FineWeb10-BT collection created with PLAID-X, using a model fine-tuned for multilingual retrieval. Query generation from context was done with Qwen2.5-7B-Instruct, while filtering was accomplished with m2-bert-80M-8k-retrieval. Up to nine passages were used as context to generate an answer using Falcon3-10B. This system placed 5th in the LiveRAG automatic evaluation for correctness with a score of 1.07.
- Abstract(参考訳): HLTCOE LiveRAG は GPT-Researcher フレームワークを用いて質問の文脈を調査し、返却結果をフィルタリングし、最終回答を生成する。
検索システムはColBERTのバイエンコーダアーキテクチャであり、多くの高密度トークンを持つパスを表す。
RetrievalはPLAID-Xで作成されたFineWeb10-BTコレクションの局所的に圧縮されたインデックスを使用しており、マルチリンガル検索のために微調整されたモデルを使用している。
コンテキストからのクエリ生成はQwen2.5-7B-Instructで行われ、フィルタリングはm2-bert-80M-8k-retrievalで実施された。
ファルコン3-10Bを使って答えを生成するための文脈として、最大9つの通路が使われた。
このシステムは、スコア1.07のLiveRAG自動評価で5位となった。
関連論文リスト
- TopClustRAG at SIGIR 2025 LiveRAG Challenge [2.56711111236449]
TopClustRAGは、LiveRAG Challengeのために開発された検索拡張世代(RAG)システムである。
本システムでは,疎度指数と密度指数を組み合わせたハイブリッド検索手法を用いて,K-Meansクラスタリングを行い,意味論的に類似した経路をグループ化する。
論文 参考訳(メタデータ) (2025-06-18T08:24:27Z) - LevelRAG: Enhancing Retrieval-Augmented Generation with Multi-hop Logic Planning over Rewriting Augmented Searchers [24.01783076521377]
Retrieval-Augmented Generation (RAG)は、大規模言語モデル(LLM)における幻覚を緩和するための重要な方法である
既存のRAGメソッドは通常、検索範囲を広げるためにハイブリッド検索を使用しながら、ユーザ意図を明確にし、マルチホップロジックを管理するためにクエリ書き換えを使用する。
本稿では,複雑なクエリをアトミックなクエリに分解する高レベル検索手法を提案する。
高精度なキーワード検索にスパース検索の長所を利用するために,Lucene構文を用いて検索精度を向上させるスパース検索手法を開発した。
論文 参考訳(メタデータ) (2025-02-25T12:09:16Z) - RAGONITE: Iterative Retrieval on Induced Databases and Verbalized RDF for Conversational QA over KGs with RAG [6.4032082023113475]
SPARQLは複雑な意図と会話型の質問に対して脆弱である。
i)知識グラフから自動的に抽出されたデータベース上のSPARQL結果と、(ii)KG事実の動詞化に関するテキスト検索結果。
パイプラインは反復的な検索をサポートし、どのブランチの結果も満足できないと判断された場合、システムは自動的にラウンドを選択できる。
本稿では,BMW自動車の知識グラフに基づくいくつかのベースラインに対する提案方式の優位性を示す。
論文 参考訳(メタデータ) (2024-12-23T16:16:30Z) - xRAG: Extreme Context Compression for Retrieval-augmented Generation with One Token [108.7069350303884]
xRAGは、検索拡張生成に適した、革新的なコンテキスト圧縮手法である。
xRAGは、言語モデル表現空間に文書の埋め込みをシームレスに統合する。
実験の結果、xRAGは6つの知識集約タスクで平均10%以上の改善を達成していることがわかった。
論文 参考訳(メタデータ) (2024-05-22T16:15:17Z) - Cross-lingual Contextualized Phrase Retrieval [63.80154430930898]
そこで本研究では,言語間関係の単語検索を多義的に行うタスクの定式化を提案する。
我々は、コントラスト学習を用いて、言語間コンテクスト対応句検索(CCPR)を訓練する。
フレーズ検索タスクでは、CCPRはベースラインをかなり上回り、少なくとも13ポイント高いトップ1の精度を達成する。
論文 参考訳(メタデータ) (2024-03-25T14:46:51Z) - Decomposing Complex Queries for Tip-of-the-tongue Retrieval [72.07449449115167]
複雑なクエリは、コンテンツ要素(例えば、書籍の文字やイベント)、ドキュメントテキスト以外の情報を記述する。
この検索設定は舌の先端 (TOT) と呼ばれ、クエリと文書テキスト間の語彙的および意味的重複に依存するモデルでは特に困難である。
クエリを個別のヒントに分解し、サブクエリとしてルーティングし、特定の検索者にルーティングし、結果をアンサンブルすることで、このような複雑なクエリを扱うための、シンプルで効果的なフレームワークを導入します。
論文 参考訳(メタデータ) (2023-05-24T11:43:40Z) - CO-Search: COVID-19 Information Retrieval with Semantic Search, Question
Answering, and Abstractive Summarization [53.67205506042232]
CO-Searchは、新型コロナウイルスの文献上の複雑なクエリを処理するように設計された、レトリバーランサーセマンティック検索エンジンである。
ドメイン固有の比較的限られたデータセットを考慮し、文書の段落と引用の2部グラフを生成する。
TREC-COVID情報検索課題のデータに基づいて,本システムの評価を行った。
論文 参考訳(メタデータ) (2020-06-17T01:32:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。