論文の概要: AraHealthQA 2025: The First Shared Task on Arabic Health Question Answering
- arxiv url: http://arxiv.org/abs/2508.20047v2
- Date: Thu, 28 Aug 2025 07:48:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-29 11:47:01.217746
- Title: AraHealthQA 2025: The First Shared Task on Arabic Health Question Answering
- Title(参考訳): AraHealthQA 2025: アラビア語の健康に関する質問に対する最初の共有タスク
- Authors: Hassan Alhuzali, Farah Shamout, Muhammad Abdul-Mageed, Chaimae Abouzahir, Mouath Abu-Daoud, Ashwag Alasmari, Walid Al-Eisawi, Renad Al-Monef, Ali Alqahtani, Lama Ayash, Nizar Habash, Leen Kharouf,
- Abstract要約: 我々は,アラビア2025(EMNLP2025と同時配置)と連携して開催されている包括的アラビア健康質問回答共有タスクであるAraHealthQA2025を紹介する。
この課題は、アラビア語のメンタルヘルスのQ&A(不安、抑うつ、スティグマの減少など)に焦点を当てたメンタルQAと、内科、小児科、臨床意思決定など幅広い医療分野をカバーするMedArabiQという2つの補完的なトラックを提供することによって、高品質なアラビア語医療QAリソースの質に対処する。
- 参考スコア(独自算出の注目度): 23.483754007860536
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We introduce {AraHealthQA 2025}, the {Comprehensive Arabic Health Question Answering Shared Task}, held in conjunction with {ArabicNLP 2025} (co-located with EMNLP 2025). This shared task addresses the paucity of high-quality Arabic medical QA resources by offering two complementary tracks: {MentalQA}, focusing on Arabic mental health Q\&A (e.g., anxiety, depression, stigma reduction), and {MedArabiQ}, covering broader medical domains such as internal medicine, pediatrics, and clinical decision making. Each track comprises multiple subtasks, evaluation datasets, and standardized metrics, facilitating fair benchmarking. The task was structured to promote modeling under realistic, multilingual, and culturally nuanced healthcare contexts. We outline the dataset creation, task design and evaluation framework, participation statistics, baseline systems, and summarize the overall outcomes. We conclude with reflections on the performance trends observed and prospects for future iterations in Arabic health QA.
- Abstract(参考訳): 本稿では,<アラビアNLP 2025}(EMNLP 2025と同時配置)と連携して開催される,包括的アラビア健康質問回答共有タスクである {AraHealthQA 2025} を紹介する。
この共有タスクは、アラビア語のメンタルヘルスQ\&A(例えば、不安、抑うつ、スティグマの減少)に焦点を当てたMentalQA}と、内科、小児科、臨床意思決定などの幅広い医療領域をカバーするMedArabiQ}という2つの補完的なトラックを提供することによって、高品質なアラビア語医療QAリソースの質に対処する。
各トラックは、複数のサブタスク、評価データセット、標準化されたメトリクスで構成され、公正なベンチマークを容易にする。
このタスクは、現実的で多言語的で文化的にニュアンスのある医療状況下でのモデリングを促進するために構成された。
データセット作成,タスク設計,評価フレームワーク,参加統計,ベースラインシステムについて概説し,その結果を概説する。
我々は、アラビア健康QAにおけるパフォーマンス動向と今後のイテレーションの展望を振り返って結論付けた。
関連論文リスト
- MedQARo: A Large-Scale Benchmark for Medical Question Answering in Romanian [50.767415194856135]
ルーマニア初の大規模医療QAベンチマークであるMedQARoを紹介する。
がん患者に関連する102,646のQAペアからなる高品質で大規模なデータセットを構築した。
論文 参考訳(メタデータ) (2025-08-22T13:48:37Z) - MedArabiQ: Benchmarking Large Language Models on Arabic Medical Tasks [8.379270814399431]
本研究は、7つのアラビア医療タスクからなる新しいベンチマークデータセットであるMedArabiQを紹介する。
筆者らはまず,過去の医学試験と公開データセットを用いてデータセットを構築した。
次に、バイアス緩和を含む様々なLCM機能を評価するために、異なる修正を導入した。
論文 参考訳(メタデータ) (2025-05-06T11:07:26Z) - LlaMADRS: Prompting Large Language Models for Interview-Based Depression Assessment [75.44934940580112]
LlaMADRSは、オープンソースのLarge Language Models(LLM)を利用して、うつ病の重症度評価を自動化する新しいフレームワークである。
本研究は,クリニカルインタヴューの解釈・スコアリングにおけるモデル指導のために,慎重に設計された手がかりを用いたゼロショットプロンプト戦略を用いている。
実世界における236件のインタビューを対象とし,臨床評価と強い相関性を示した。
論文 参考訳(メタデータ) (2025-01-07T08:49:04Z) - HealthQ: Unveiling Questioning Capabilities of LLM Chains in Healthcare Conversations [20.31796453890812]
HealthQは、医療会話における大規模言語モデル(LLM)の質問機能を評価するためのフレームワークである。
我々は LLM の判断を統合して, 具体性, 妥当性, 有用性など, 様々な指標を用いて, 生成した質問を評価する。
医療談話における質問機能評価のための最初の体系的枠組みを提示し、モデルに依存しない評価手法を確立し、高品質な質問をリンクして患者の情報引用を改善するための実証的証拠を提供する。
論文 参考訳(メタデータ) (2024-09-28T23:59:46Z) - From Multiple-Choice to Extractive QA: A Case Study for English and Arabic [51.13706104333848]
既存の多言語データセットを新しいNLPタスクに再利用する可能性について検討する。
本稿では,英語および現代標準アラビア語に対するアノテーションガイドラインと並列EQAデータセットを提案する。
我々は、残りの120のBELEBELE言語変種に対して、他の人が我々のアプローチを適用するのを助けることを目指しており、その多くがリソース不足と見なされている。
論文 参考訳(メタデータ) (2024-04-26T11:46:05Z) - PULSAR: Pre-training with Extracted Healthcare Terms for Summarising
Patients' Problems and Data Augmentation with Black-box Large Language Models [25.363775123262307]
問題リストの形で患者の問題を自動的に要約することで、ステークホルダーが患者の状態を理解し、作業負荷と認知バイアスを減らすのに役立つ。
BioNLP 2023 共有タスク1Aは、入院中の提供者の進捗状況から診断と問題のリストを作成することに焦点を当てている。
1つのコンポーネントは、データ拡張のために大きな言語モデル(LLM)を使用し、もう1つは、リストとして要約された患者の問題を生成するための、新しいトレーニング済みの目標を持つ抽象的な要約 LLM である。
私たちのアプローチは、共有タスクへの全提出のうち、第2位でした。
論文 参考訳(メタデータ) (2023-06-05T10:17:50Z) - PMC-LLaMA: Towards Building Open-source Language Models for Medicine [62.39105735933138]
大規模言語モデル(LLM)は、自然言語理解において顕著な能力を示した。
LLMは、ドメイン固有の知識が不足しているため、医学的応用のような正確性を必要とする領域で苦労している。
PMC-LLaMAと呼ばれる医療応用に特化した強力なオープンソース言語モデルの構築手順について述べる。
論文 参考訳(メタデータ) (2023-04-27T18:29:05Z) - ViMQ: A Vietnamese Medical Question Dataset for Healthcare Dialogue
System Development [1.4315915057750197]
ベトナムでは,文レベルおよびエンティティレベルのアノテーションを持つ患者からの医療質問のデータセットを公開している。
本研究では,スパンノイズモデルを用いた簡易な自己教師型学習手法を提案する。
論文 参考訳(メタデータ) (2023-04-27T17:59:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。