論文の概要: ArgHiTZ at ArchEHR-QA 2025: A Two-Step Divide and Conquer Approach to Patient Question Answering for Top Factuality
- arxiv url: http://arxiv.org/abs/2506.12886v1
- Date: Sun, 15 Jun 2025 15:32:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-17 17:28:47.087232
- Title: ArgHiTZ at ArchEHR-QA 2025: A Two-Step Divide and Conquer Approach to Patient Question Answering for Top Factuality
- Title(参考訳): ArgHiTZ at ArchEHR-QA 2025: Two-step Divide and Conquer Approach to patient Question Answering for Top Factuality
- Authors: Adrián Cuadrón, Aimar Sagasti, Maitane Urruela, Iker De la Iglesia, Ane G Domingo-Aldama, Aitziber Atutxa, Josu Goikoetxea, Ander Barrena,
- Abstract要約: 本研究は,自動質問応答におけるArchEHR-QA 2025共有タスクに対処する3つのアプローチを提案する。
外部知識を使わずにタスクを分割するために,エンドツーエンドのプロンプトベースラインと2段階の手法を導入する。
私たちの最高得点は0.44点で、30点中8位にランクインした。
- 参考スコア(独自算出の注目度): 0.9917494440952518
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This work presents three different approaches to address the ArchEHR-QA 2025 Shared Task on automated patient question answering. We introduce an end-to-end prompt-based baseline and two two-step methods to divide the task, without utilizing any external knowledge. Both two step approaches first extract essential sentences from the clinical text, by prompt or similarity ranking, and then generate the final answer from these notes. Results indicate that the re-ranker based two-step system performs best, highlighting the importance of selecting the right approach for each subtask. Our best run achieved an overall score of 0.44, ranking 8th out of 30 on the leaderboard, securing the top position in overall factuality.
- Abstract(参考訳): 本研究は,自動質問応答におけるArchEHR-QA 2025共有タスクに対処する3つのアプローチを提案する。
外部知識を使わずにタスクを分割するために,エンドツーエンドのプロンプトベースラインと2段階の手法を導入する。
2つのステップは、まず、プロンプトまたは類似性ランキングを用いて、臨床テキストから本質的な文章を抽出し、次にこれらのノートから最終回答を生成する。
その結果,リランカをベースとした2段階システムは,各サブタスクに対して適切なアプローチを選択することの重要性を強調した。
私たちの最高得点は0.44点で、30点中8位にランクインした。
関連論文リスト
- Beyond the Last Answer: Your Reasoning Trace Uncovers More than You Think [51.0691253204425]
我々は2つの質問に答えるために中間的推論ステップを解析する: 最終的な答えはモデルの最適結論を確実に表すか?
我々のアプローチは、推論トレースを言語的手がかりに基づくシーケンシャルなサブソートに分割することである。
これらの解答を最も頻繁な解(モード)を選択して集約すると、元の完全トレースから得られる解のみに依存するよりも、はるかに高い精度が得られることが判明した。
論文 参考訳(メタデータ) (2025-04-29T12:39:07Z) - Active Ranking of Experts Based on their Performances in Many Tasks [72.96112117037465]
我々は、dタスクのパフォーマンスに基づいて、n名のエキスパートをランク付けする問題を考察する。
我々は,各専門家のペアに対して,各タスクにおいて他方よりも優れているという,単調な仮定を定めている。
論文 参考訳(メタデータ) (2023-06-05T06:55:39Z) - When and What to Ask Through World States and Text Instructions: IGLU
NLP Challenge Solution [6.36729066736314]
協調作業においては、効果的なコミュニケーションが共同目標達成に不可欠である。
我々は対話を通してユーザ入力に基づく構造を構築するインテリジェントなビルダーエージェントの開発を目指している。
論文 参考訳(メタデータ) (2023-05-09T20:23:17Z) - Reranking Overgenerated Responses for End-to-End Task-Oriented Dialogue
Systems [71.33737787564966]
エンド・ツー・エンド(E2E)タスク指向対話システム(ToD)は、いわゆる「いいね!
本稿では,システムによって当初過剰に生成された応答リストから高品質な項目を選択する方法を提案する。
本研究では,最先端のE2E ToDシステムを2.4BLEU,3.2ROUGE,2.8 METEORで改善し,新たなピーク値を得た。
論文 参考訳(メタデータ) (2022-11-07T15:59:49Z) - Double Retrieval and Ranking for Accurate Question Answering [120.69820139008138]
本研究では,トランスフォーマーを用いた解答選択モデルに導入された解答検証ステップが,問合せ解答における解答の精度を大幅に向上させることを示す。
AS2のためのよく知られた3つのデータセットの結果は、最先端の一貫性と大幅な改善を示している。
論文 参考訳(メタデータ) (2022-01-16T06:20:07Z) - Adaptive Information Seeking for Open-Domain Question Answering [61.39330982757494]
本稿では,オープンドメイン質問応答,すなわちAISOに対する適応型情報探索手法を提案する。
学習方針によると、AISOは適切な検索行動を選択し、各ステップで行方不明の証拠を探すことができる。
AISOは、検索と回答の評価の両方の観点から、事前定義された戦略で全てのベースライン手法を上回ります。
論文 参考訳(メタデータ) (2021-09-14T15:08:13Z) - IIE-NLP-Eyas at SemEval-2021 Task 4: Enhancing PLM for ReCAM with
Special Tokens, Re-Ranking, Siamese Encoders and Back Translation [8.971288666318719]
本稿では,SemEval-2021 Task 4: Reading of Abstract Meaningの3つのサブタスクについて紹介する。
バックボーンモデル(RoBERTa)に適応した多くの単純かつ効果的なアプローチをうまく設計する。
実験結果から,本手法はベースラインシステムと比較して高い性能を示した。
論文 参考訳(メタデータ) (2021-02-25T10:51:48Z) - Hierarchical Ranking for Answer Selection [19.379777219863964]
階層的ランキング(hierarchical ranking)と呼ばれる,回答選択のための新しい戦略を提案する。
ポイントレベルのランキング、ペアレベルのランキング、リストレベルのランキングの3つのレベルを導入します。
WikiQA と TREC-QA の2つの公開データセットによる実験結果から,提案した階層的ランキングが有効であることを示す。
論文 参考訳(メタデータ) (2021-02-01T07:35:52Z) - MIX : a Multi-task Learning Approach to Solve Open-Domain Question Answering [0.0]
本稿では,複数タスクの深層学習手法であるMIXを紹介する。
本稿では,検索スペースを削減するためのBM25ベースのRetriever,RoBERTaベースのScorer,検索した段落をランク付けして関連するテキストスパンを抽出するExtractorの3つのブロックからなる多段パイプラインとして設計する。
我々のシステムは、概念的には単純でありながら、分隊オープンベンチマークにおける最先端のパフォーマンスと同等である。
論文 参考訳(メタデータ) (2020-12-17T17:22:30Z) - A Study on Efficiency, Accuracy and Document Structure for Answer
Sentence Selection [112.0514737686492]
本稿では,単語関連エンコーダとともに,原語階の内在的構造を活用すれば,競争的な結果が得られることを論じる。
私たちのモデルはWikiQAデータセットでトレーニングするのに9.5秒かかります。
論文 参考訳(メタデータ) (2020-03-04T22:12:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。