論文の概要: RMIT-ADM+S at the SIGIR 2025 LiveRAG Challenge
- arxiv url: http://arxiv.org/abs/2506.14516v1
- Date: Tue, 17 Jun 2025 13:41:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-18 17:34:59.489635
- Title: RMIT-ADM+S at the SIGIR 2025 LiveRAG Challenge
- Title(参考訳): RMIT-ADM+S : SIGIR 2025 LiveRAG Challenge
- Authors: Kun Ran, Shuoqi Sun, Khoi Nguyen Dinh Anh, Damiano Spina, Oleg Zendel,
- Abstract要約: 本稿では,SIGIR 2025 LiveRAG ChallengeにおけるRMIT--ADM+S参加について述べる。
我々のGAG(Generation-Retrieval-Augmented Generation)アプローチは、元の質問とともに、検索フェーズで使用される仮説的な回答を生成することに依存しています。
システムアーキテクチャと設計選択の背後にある根拠について説明する。
- 参考スコア(独自算出の注目度): 4.364909807482374
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: This paper presents the RMIT--ADM+S participation in the SIGIR 2025 LiveRAG Challenge. Our Generation-Retrieval-Augmented Generation (GRAG) approach relies on generating a hypothetical answer that is used in the retrieval phase, alongside the original question. GRAG also incorporates a pointwise large language model (LLM)-based re-ranking step prior to final answer generation. We describe the system architecture and the rationale behind our design choices. In particular, a systematic evaluation using the Grid of Points (GoP) framework and N-way ANOVA enabled comparison across multiple configurations, including query variant generation, question decomposition, rank fusion strategies, and prompting techniques for answer generation. Our system achieved a Relevance score of 1.199 and a Faithfulness score of 0.477 on the private leaderboard, placing among the top four finalists in the LiveRAG 2025 Challenge.
- Abstract(参考訳): 本稿では,SIGIR 2025 LiveRAG ChallengeにおけるRMIT--ADM+S参加について述べる。
我々のGAG(Generation-Retrieval-Augmented Generation)アプローチは、元の質問とともに、検索フェーズで使用される仮説的な回答を生成することに依存します。
GRAGはまた、最終回答生成の前に、ポイントワイドな大きな言語モデル(LLM)ベースの再ランクステップも組み込んでいる。
システムアーキテクチャと設計選択の背後にある根拠について説明する。
特に,Grid of Points (GoP) フレームワークと N-way ANOVA を用いた体系的評価により,クエリ変量生成,質問分解,ランク融合戦略,回答生成の促進など,複数の構成の比較が可能となった。
このシステムは,リバレンススコア1.199,フェイスフルネススコア0.477を獲得し,LiveRAG 2025 Challengeでトップ4のファイナリストにランクインした。
関連論文リスト
- RAGtifier: Evaluating RAG Generation Approaches of State-of-the-Art RAG Systems for the SIGIR LiveRAG Competition [0.0]
LiveRAG 2025チャレンジでは、DataMorganaのQAペアの精度を最大化するためのRAGソリューションが検討されている。
このチャレンジは、Fineweb 10BTデータセットのスパースOpenSearchと密度の高いPineconeインデックスへのアクセスを提供する。
SIGIR 2025 LiveRAG Challengeでは,正当性スコアが1.13,忠実度スコアが0.55,SIGIR 2025 LiveRAG Challengeが4位となった。
論文 参考訳(メタデータ) (2025-06-17T11:14:22Z) - CIIR@LiveRAG 2025: Optimizing Multi-Agent Retrieval Augmented Generation through Self-Training [18.787703082459046]
mRAGは、計画、探索、推論、調整などのサブタスクに特化したエージェントで構成されるマルチエージェント検索拡張生成フレームワークである。
SIGIR 2025 LiveRAGコンペティションでDataMorgana由来のデータセットを評価すると、mRAGは従来のRAGベースラインを上回っている。
論文 参考訳(メタデータ) (2025-06-12T16:02:29Z) - ESGenius: Benchmarking LLMs on Environmental, Social, and Governance (ESG) and Sustainability Knowledge [53.18163869901266]
ESGeniusは、環境・社会・ガバナンス(ESG)における大規模言語モデル(LLM)の熟練度の評価と向上のためのベンチマークである。
ESGeniusはESGenius-QAとESGenius-Corpusの2つの重要なコンポーネントから構成される。
論文 参考訳(メタデータ) (2025-06-02T13:19:09Z) - NTIRE 2025 Challenge on Image Super-Resolution ($\times$4): Methods and Results [159.15538432295656]
NTIRE 2025イメージ超解像(4ドル)チャレンジは、CVPR 2025の第10回NETREワークショップのコンペティションのひとつ。
この課題は、低分解能(LR)画像から高分解能(HR)画像を復元することを目的としている。
286人の参加者が参加し、25チームが有効なエントリーを提出した。
論文 参考訳(メタデータ) (2025-04-20T12:08:22Z) - Chain-of-Retrieval Augmented Generation [72.06205327186069]
本稿では,o1-like RAGモデルを学習し,最終回答を生成する前に段階的に関連情報を抽出・推論する手法を提案する。
提案手法であるCoRAGは,進化状態に基づいて動的にクエリを再構成する。
論文 参考訳(メタデータ) (2025-01-24T09:12:52Z) - Retrieval-Augmented Generation for Domain-Specific Question Answering: A Case Study on Pittsburgh and CMU [3.1787418271023404]
我々は、ドメイン固有の質問に答えるために、関連文書を含む大規模言語モデルを提供するために、検索型拡張生成システム(RAG)を設計した。
我々は,グリーディスクレーピング戦略を用いて1,800以上のサブページを抽出し,手動とMistralの生成した質問応答ペアを組み合わせたハイブリッドアノテーションプロセスを用いた。
我々のRAGフレームワークはBM25とFAISSレトリバーを統合し、文書検索精度を向上させるリランカで強化した。
論文 参考訳(メタデータ) (2024-11-20T20:10:43Z) - CRAG -- Comprehensive RAG Benchmark [58.15980697921195]
Retrieval-Augmented Generation (RAG) は、Large Language Model (LLM) の知識不足を緩和するための有望なソリューションとして最近登場した。
既存のRAGデータセットは、現実世界の質問回答(QA)タスクの多様性と動的な性質を適切に表現していない。
このギャップを埋めるために、包括的RAGベンチマーク(CRAG)を導入する。
CRAGは、Webと知識グラフ(KG)検索をシミュレートする4,409組の質問応答ペアとモックAPIの実際の質問応答ベンチマークである。
論文 参考訳(メタデータ) (2024-06-07T08:43:07Z) - Sequencing Matters: A Generate-Retrieve-Generate Model for Building
Conversational Agents [9.191944519634111]
Georgetown InfoSense GroupはTREC iKAT 2023の課題を解決するために活動している。
提案手法は, 各カット数, 総合成功率において, nDCG において高い性能を示した。
我々のソリューションは、初期回答にLarge Language Models (LLMs) を用いること、BM25による回答基盤、ロジスティック回帰による通過品質フィルタリング、LLMによる回答生成である。
論文 参考訳(メタデータ) (2023-11-16T02:37:58Z) - The IMS-CUBoulder System for the SIGMORPHON 2020 Shared Task on
Unsupervised Morphological Paradigm Completion [27.37360427124081]
我々は、Stuttgart IMS大学とコロラド大学ボルダー校のSIGMORPHON 2020 Task 2における、教師なし形態素パラダイムの完成に関するシステムについて紹介する。
このタスクは、レムマ自体とラベルなしのテキストのみを与えられた一連のレムマのモルフォロジーパラダイムを生成することで構成されている。
我々のポインタジェネレータシステムは、全ての言語で平均して7つの提案されたシステムの中で最高のスコアを取得し、ブルガリア語とカンナダ語において、総合的に最も優れた公式ベースラインを上回ります。
論文 参考訳(メタデータ) (2020-05-25T21:23:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。