論文の概要: RMIT-ADM+S at the SIGIR 2025 LiveRAG Challenge
- arxiv url: http://arxiv.org/abs/2506.14516v2
- Date: Wed, 23 Jul 2025 21:41:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-25 15:10:41.73326
- Title: RMIT-ADM+S at the SIGIR 2025 LiveRAG Challenge
- Title(参考訳): RMIT-ADM+S : SIGIR 2025 LiveRAG Challenge
- Authors: Kun Ran, Shuoqi Sun, Khoi Nguyen Dinh Anh, Damiano Spina, Oleg Zendel,
- Abstract要約: 本稿では,SIGIR 2025 LiveRAG ChallengeにおけるRMIT--ADM+S入賞システムについて述べる。
我々のG-RAG(Generation-Retrieval-Augmented Generation)アプローチは、元の質問とともに、検索フェーズで使用される仮説的な回答を生成する。
G-RAGはまた、最終回答生成の前に、ポイントワイドな大規模言語モデル(LLM)ベースの再ランクステップも組み込んでいる。
- 参考スコア(独自算出の注目度): 4.364909807482374
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: This paper presents the RMIT--ADM+S winning system in the SIGIR 2025 LiveRAG Challenge. Our Generation-Retrieval-Augmented Generation (G-RAG) approach generates a hypothetical answer that is used during the retrieval phase, alongside the original question. G-RAG also incorporates a pointwise large language model (LLM)-based re-ranking step prior to final answer generation. We describe the system architecture and the rationale behind our design choices. In particular, a systematic evaluation using the Grid of Points approach and N-way ANOVA enabled a controlled comparison of multiple configurations, including query variant generation, question decomposition, rank fusion strategies, and prompting techniques for answer generation. The submitted system achieved the highest Borda score based on the aggregation of Coverage, Relatedness, and Quality scores from manual evaluations, ranking first in the SIGIR 2025 LiveRAG Challenge.
- Abstract(参考訳): 本稿では,SIGIR 2025 LiveRAG ChallengeにおけるRMIT--ADM+S入賞システムについて述べる。
我々のG-RAG(Generation-Retrieval-Augmented Generation)アプローチは、元の質問とともに、検索フェーズで使用される仮説的な回答を生成する。
G-RAGはまた、最終回答生成の前に、ポイントワイドな大規模言語モデル(LLM)ベースの再ランクステップも組み込んでいる。
システムアーキテクチャと設計選択の背後にある根拠について説明する。
特に、Grid of PointsアプローチとN-way ANOVAを用いた体系的評価により、クエリ変量生成、質問分解、ランク融合戦略、回答生成の促進技術を含む複数の構成の制御された比較が可能となった。
提案システムは,SIGIR 2025 LiveRAG Challengeで第1位となった手動評価から,カバー,関連性,品質のスコアを集計し,ボルダスコアを最高に達成した。
関連論文リスト
- Towards Agentic RAG with Deep Reasoning: A Survey of RAG-Reasoning Systems in LLMs [69.10441885629787]
Retrieval-Augmented Generation (RAG) は、外部知識を注入することによって、Large Language Models (LLM) の事実性を高める。
逆に、純粋に推論指向のアプローチは、しばしば幻覚的あるいは誤った事実を必要とする。
この調査は両鎖を統一的推論-検索の観点から合成する。
論文 参考訳(メタデータ) (2025-07-13T03:29:41Z) - PreQRAG -- Classify and Rewrite for Enhanced RAG [1.652907918484303]
検索および生成品質を改善するために設計された検索拡張型アーキテクチャであるPreQRAGを紹介する。
PreQRAGには、まず各入力質問を単一ドキュメントタイプまたは複数ドキュメントタイプに分類するパイプラインが組み込まれている。
単文書質問に対して,検索精度と生成関連性を改善するために質問書き直し手法を用いる。
複数文書の質問に対して、より効果的に処理できる集中サブクェリに複雑なクエリを分解する。
論文 参考訳(メタデータ) (2025-06-20T22:02:05Z) - TopClustRAG at SIGIR 2025 LiveRAG Challenge [2.56711111236449]
TopClustRAGは、LiveRAG Challengeのために開発された検索拡張世代(RAG)システムである。
本システムでは,疎度指数と密度指数を組み合わせたハイブリッド検索手法を用いて,K-Meansクラスタリングを行い,意味論的に類似した経路をグループ化する。
論文 参考訳(メタデータ) (2025-06-18T08:24:27Z) - RAGtifier: Evaluating RAG Generation Approaches of State-of-the-Art RAG Systems for the SIGIR LiveRAG Competition [0.0]
LiveRAG 2025チャレンジでは、DataMorganaのQAペアの精度を最大化するためのRAGソリューションが検討されている。
このチャレンジは、Fineweb 10BTデータセットのスパースOpenSearchと密度の高いPineconeインデックスへのアクセスを提供する。
SIGIR 2025 LiveRAG Challengeでは,正当性スコアが1.13,忠実度スコアが0.55,SIGIR 2025 LiveRAG Challengeが4位となった。
論文 参考訳(メタデータ) (2025-06-17T11:14:22Z) - CIIR@LiveRAG 2025: Optimizing Multi-Agent Retrieval Augmented Generation through Self-Training [18.787703082459046]
mRAGは、計画、探索、推論、調整などのサブタスクに特化したエージェントで構成されるマルチエージェント検索拡張生成フレームワークである。
SIGIR 2025 LiveRAGコンペティションでDataMorgana由来のデータセットを評価すると、mRAGは従来のRAGベースラインを上回っている。
論文 参考訳(メタデータ) (2025-06-12T16:02:29Z) - ESGenius: Benchmarking LLMs on Environmental, Social, and Governance (ESG) and Sustainability Knowledge [53.18163869901266]
ESGeniusは、環境・社会・ガバナンス(ESG)における大規模言語モデル(LLM)の熟練度の評価と向上のためのベンチマークである。
ESGeniusはESGenius-QAとESGenius-Corpusの2つの重要なコンポーネントから構成される。
論文 参考訳(メタデータ) (2025-06-02T13:19:09Z) - NTIRE 2025 Challenge on Image Super-Resolution ($\times$4): Methods and Results [159.15538432295656]
NTIRE 2025イメージ超解像(4ドル)チャレンジは、CVPR 2025の第10回NETREワークショップのコンペティションのひとつ。
この課題は、低分解能(LR)画像から高分解能(HR)画像を復元することを目的としている。
286人の参加者が参加し、25チームが有効なエントリーを提出した。
論文 参考訳(メタデータ) (2025-04-20T12:08:22Z) - Chain-of-Retrieval Augmented Generation [72.06205327186069]
本稿では,o1-like RAGモデルを学習し,最終回答を生成する前に段階的に関連情報を抽出・推論する手法を提案する。
提案手法であるCoRAGは,進化状態に基づいて動的にクエリを再構成する。
論文 参考訳(メタデータ) (2025-01-24T09:12:52Z) - MST-R: Multi-Stage Tuning for Retrieval Systems and Metric Evaluation [7.552430488883876]
マルチステージチューニング戦略を用いて,検索器の性能を対象領域に適応させるシステムを提案する。
RIRAGチャレンジ用にリリースされたデータセット上で、システムパフォーマンスをベンチマークする。
我々は、RegNLPチャレンジリーダーボードのトップランクを獲得することで、大きなパフォーマンス向上を達成する。
論文 参考訳(メタデータ) (2024-12-13T17:53:29Z) - Retrieval-Augmented Generation for Domain-Specific Question Answering: A Case Study on Pittsburgh and CMU [3.1787418271023404]
我々は、ドメイン固有の質問に答えるために、関連文書を含む大規模言語モデルを提供するために、検索型拡張生成システム(RAG)を設計した。
我々は,グリーディスクレーピング戦略を用いて1,800以上のサブページを抽出し,手動とMistralの生成した質問応答ペアを組み合わせたハイブリッドアノテーションプロセスを用いた。
我々のRAGフレームワークはBM25とFAISSレトリバーを統合し、文書検索精度を向上させるリランカで強化した。
論文 参考訳(メタデータ) (2024-11-20T20:10:43Z) - Do RAG Systems Cover What Matters? Evaluating and Optimizing Responses with Sub-Question Coverage [74.70255719194819]
サブクエストカバレッジに基づく新しいフレームワークを導入し、RAGシステムが質問の異なる面にどのように対処するかを計測する。
このフレームワークを使用して、You.com、Perplexity AI、Bing Chatの3つの商用生成応答エンジンを評価します。
すべての回答エンジンは、バックグラウンドやフォローアップよりも、コアサブクエストを頻繁にカバーしていますが、コアサブクエストの約50%を見逃しています。
論文 参考訳(メタデータ) (2024-10-20T22:59:34Z) - Toward General Instruction-Following Alignment for Retrieval-Augmented Generation [63.611024451010316]
Retrieval-Augmented Generation (RAG) システムの効果的な適用には、自然な指示に従うことが不可欠である。
RAGシステムにおける命令追従アライメントのための,最初の自動化,拡張性,検証可能な合成パイプラインであるVIF-RAGを提案する。
論文 参考訳(メタデータ) (2024-10-12T16:30:51Z) - RAGEval: Scenario Specific RAG Evaluation Dataset Generation Framework [66.93260816493553]
本稿では,様々なシナリオにまたがってRAGシステムを評価するためのフレームワークであるRAGvalを紹介する。
事実の正確性に焦点をあてて,完全性,幻覚,不適切性の3つの新しい指標を提案する。
実験結果から, RAGEvalは, 生成した試料の明瞭度, 安全性, 適合性, 豊かさにおいて, ゼロショット法とワンショット法より優れていた。
論文 参考訳(メタデータ) (2024-08-02T13:35:11Z) - CRAG -- Comprehensive RAG Benchmark [58.15980697921195]
Retrieval-Augmented Generation (RAG) は、Large Language Model (LLM) の知識不足を緩和するための有望なソリューションとして最近登場した。
既存のRAGデータセットは、現実世界の質問回答(QA)タスクの多様性と動的な性質を適切に表現していない。
このギャップを埋めるために、包括的RAGベンチマーク(CRAG)を導入する。
CRAGは、Webと知識グラフ(KG)検索をシミュレートする4,409組の質問応答ペアとモックAPIの実際の質問応答ベンチマークである。
論文 参考訳(メタデータ) (2024-06-07T08:43:07Z) - DuetRAG: Collaborative Retrieval-Augmented Generation [57.440772556318926]
協調検索拡張生成フレームワークであるDuetRAGが提案されている。
ブートストラップの哲学はドメインフィニングとRAGモデルを同時に統合することである。
論文 参考訳(メタデータ) (2024-05-12T09:48:28Z) - Sequencing Matters: A Generate-Retrieve-Generate Model for Building
Conversational Agents [9.191944519634111]
Georgetown InfoSense GroupはTREC iKAT 2023の課題を解決するために活動している。
提案手法は, 各カット数, 総合成功率において, nDCG において高い性能を示した。
我々のソリューションは、初期回答にLarge Language Models (LLMs) を用いること、BM25による回答基盤、ロジスティック回帰による通過品質フィルタリング、LLMによる回答生成である。
論文 参考訳(メタデータ) (2023-11-16T02:37:58Z) - The IMS-CUBoulder System for the SIGMORPHON 2020 Shared Task on
Unsupervised Morphological Paradigm Completion [27.37360427124081]
我々は、Stuttgart IMS大学とコロラド大学ボルダー校のSIGMORPHON 2020 Task 2における、教師なし形態素パラダイムの完成に関するシステムについて紹介する。
このタスクは、レムマ自体とラベルなしのテキストのみを与えられた一連のレムマのモルフォロジーパラダイムを生成することで構成されている。
我々のポインタジェネレータシステムは、全ての言語で平均して7つの提案されたシステムの中で最高のスコアを取得し、ブルガリア語とカンナダ語において、総合的に最も優れた公式ベースラインを上回ります。
論文 参考訳(メタデータ) (2020-05-25T21:23:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。