論文の概要: GETALP@AutoMin 2025: Leveraging RAG to Answer Questions based on Meeting Transcripts
- arxiv url: http://arxiv.org/abs/2508.00476v1
- Date: Fri, 01 Aug 2025 09:51:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-04 18:08:53.824036
- Title: GETALP@AutoMin 2025: Leveraging RAG to Answer Questions based on Meeting Transcripts
- Title(参考訳): GETALP@AutoMin 2025:会議記録に基づく質問へのRAGの活用
- Authors: Jeongwoo Kang, Markarit Vartampetian, Felix Herron, Yongxin Zhou, Diandra Fabre, Gabriela Gonzalez-Saez,
- Abstract要約: 本稿では, GETALP による SIGDial 2025 における Automatic Minuting Shared Task の3回目への提出について報告する。
提案手法は,検索拡張生成(RAG)システムと抽象的意味表現(AMR)に基づく。
以上の結果から,AMRを取り入れた場合,約35%の回答が得られている。
- 参考スコア(独自算出の注目度): 0.18846515534317265
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper documents GETALP's submission to the Third Run of the Automatic Minuting Shared Task at SIGDial 2025. We participated in Task B: question-answering based on meeting transcripts. Our method is based on a retrieval augmented generation (RAG) system and Abstract Meaning Representations (AMR). We propose three systems combining these two approaches. Our results show that incorporating AMR leads to high-quality responses for approximately 35% of the questions and provides notable improvements in answering questions that involve distinguishing between different participants (e.g., who questions).
- Abstract(参考訳): 本稿では, GETALP による SIGDial 2025 における Automatic Minuting Shared Task の3回目への提出について報告する。
課題B:ミーティングの書き起こしに基づく質問応答。
本手法は,検索拡張生成(RAG)システムと抽象的意味表現(AMR)に基づく。
これら2つのアプローチを組み合わせた3つのシステムを提案する。
以上の結果から,AMRの導入は,約35%の質問に対して高品質な回答をもたらすことが示唆された。
関連論文リスト
- AUEB-Archimedes at RIRAG-2025: Is obligation concatenation really all you need? [11.172264842171682]
本稿では,RIRAG-2025のために開発したシステムについて述べる。
生成された回答は、参照フリーでモデルベースのメトリクスであるRePASを用いて評価される。
抽出された節から重要な文(「無視」)を抽出するRePASの神経成分を利用することで、精度の高いスコア(0.947)が得られることを示す。
そして、いくつかの代替案の中で最も優れたRePASで答えを選択することで、より可読で比較的高い結果が得られる可読で一貫性のある回答を生成することができることを示す。
論文 参考訳(メタデータ) (2024-12-16T08:54:21Z) - Do RAG Systems Cover What Matters? Evaluating and Optimizing Responses with Sub-Question Coverage [74.70255719194819]
サブクエストカバレッジに基づく新しいフレームワークを導入し、RAGシステムが質問の異なる面にどのように対処するかを計測する。
このフレームワークを使用して、You.com、Perplexity AI、Bing Chatの3つの商用生成応答エンジンを評価します。
すべての回答エンジンは、バックグラウンドやフォローアップよりも、コアサブクエストを頻繁にカバーしていますが、コアサブクエストの約50%を見逃しています。
論文 参考訳(メタデータ) (2024-10-20T22:59:34Z) - ELOQ: Resources for Enhancing LLM Detection of Out-of-Scope Questions [52.33835101586687]
本研究では,検索した文書が意味的に類似しているように見えるスコープ外質問について検討するが,答えるために必要な情報がない。
本稿では,閉経後の文書から多様なスコープ外質問を自動的に生成するための,幻覚に基づくELOQを提案する。
論文 参考訳(メタデータ) (2024-10-18T16:11:29Z) - Reranking Overgenerated Responses for End-to-End Task-Oriented Dialogue
Systems [71.33737787564966]
エンド・ツー・エンド(E2E)タスク指向対話システム(ToD)は、いわゆる「いいね!
本稿では,システムによって当初過剰に生成された応答リストから高品質な項目を選択する方法を提案する。
本研究では,最先端のE2E ToDシステムを2.4BLEU,3.2ROUGE,2.8 METEORで改善し,新たなピーク値を得た。
論文 参考訳(メタデータ) (2022-11-07T15:59:49Z) - Double Retrieval and Ranking for Accurate Question Answering [120.69820139008138]
本研究では,トランスフォーマーを用いた解答選択モデルに導入された解答検証ステップが,問合せ解答における解答の精度を大幅に向上させることを示す。
AS2のためのよく知られた3つのデータセットの結果は、最先端の一貫性と大幅な改善を示している。
論文 参考訳(メタデータ) (2022-01-16T06:20:07Z) - The University of Texas at Dallas HLTRI's Participation in EPIC-QA:
Searching for Entailed Questions Revealing Novel Answer Nuggets [1.0957528713294875]
本稿では,EPIC-QAの両課題への参加について述べる:(1)エキスパートQA,(2)消費者QA。
提案手法では,BM25,BERT,T5を組み合わせた多相ニューラル情報検索システムを用いて,回答候補文から自動生成される質問と質問の関連性を検討する。
SER4EQUNOVA (NOVel nuggets of Answers) を提示するSEaRching for Entailed QUestions (SEaRching for Entailed QUestions) と呼ばれるシステムにより,EPIC-QAタスクの両タスクにおいて有望な結果が得られた。
論文 参考訳(メタデータ) (2021-12-28T00:14:46Z) - Building and Evaluating Open-Domain Dialogue Corpora with Clarifying
Questions [65.60888490988236]
オープンドメインのシングルターンとマルチターンの会話に焦点を当てたデータセットをリリースする。
我々は最先端のニューラルベースラインをいくつかベンチマークする。
様々な対話における質問の明確化の質を評価するための,オフラインおよびオンラインのステップからなるパイプラインを提案する。
論文 参考訳(メタデータ) (2021-09-13T09:16:14Z) - A Clarifying Question Selection System from NTES_ALONG in Convai3
Challenge [8.656503175492375]
本稿では,検索指向会話型AI (SCAI) EMNLPワークショップにおけるClariQチャレンジへのNetEase Game AI Labチームの参加について述べる。
この課題は、解明された質問を理解し、生成できる完全な会話情報検索システムを求めるものである。
本稿では,回答理解,質問のリコール,質問ランキングの明確化からなる質問選択システムを提案する。
論文 参考訳(メタデータ) (2020-10-27T11:22:53Z) - ConvAI3: Generating Clarifying Questions for Open-Domain Dialogue
Systems (ClariQ) [64.60303062063663]
本論文では,対話システムに対する質問の明確化に関する課題について詳述する(ClariQ)。
このチャレンジは、2020年のSearch Oriented Conversational AI (SCAI) EMNLPワークショップで、ConvAI3(Conversational AI Challenge series)の一部として組織されている。
論文 参考訳(メタデータ) (2020-09-23T19:48:02Z) - Multi-Stage Conversational Passage Retrieval: An Approach to Fusing Term
Importance Estimation and Neural Query Rewriting [56.268862325167575]
マルチステージアドホックIRシステムにクエリ再構成を組み込んだ会話経路検索(ConvPR)に取り組む。
本稿では,1項の重要度推定と2項のニューラルクエリ書き換えという2つの手法を提案する。
前者に対しては、周波数に基づく信号を用いて会話コンテキストから抽出した重要な用語を用いて会話クエリを拡張する。
後者では,会話クエリを,事前訓練されたシーケンス列列列モデルを用いて,自然な,スタンドアロンの,人間の理解可能なクエリに再構成する。
論文 参考訳(メタデータ) (2020-05-05T14:30:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。