論文の概要: FirstAidQA: A Synthetic Dataset for First Aid and Emergency Response in Low-Connectivity Settings
- arxiv url: http://arxiv.org/abs/2511.01289v1
- Date: Mon, 03 Nov 2025 07:14:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 16:37:27.151816
- Title: FirstAidQA: A Synthetic Dataset for First Aid and Emergency Response in Low-Connectivity Settings
- Title(参考訳): FirstAidQA: 低接続性設定におけるファーストエイドと緊急応答のための合成データセット
- Authors: Saiyma Sittul Muna, Rezwan Islam Salvi, Mushfiqur Rahman Mushfique, Ajwad Abrar,
- Abstract要約: FirstAidQAは、5500の高品質な質問応答ペアを含むデータセットである。
データセットはLarge Language Model、ChatGPT-4-miniを使って生成され、プロンプトベースのインコンテキスト学習を行う。
我々はこのデータセットを公開し、ファーストエイズと緊急対応のための安全クリティカルでリソースに制約のあるAIアプリケーションの研究を進める。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In emergency situations, every second counts. The deployment of Large Language Models (LLMs) in time-sensitive, low or zero-connectivity environments remains limited. Current models are computationally intensive and unsuitable for low-tier devices often used by first responders or civilians. A major barrier to developing lightweight, domain-specific solutions is the lack of high-quality datasets tailored to first aid and emergency response. To address this gap, we introduce FirstAidQA, a synthetic dataset containing 5,500 high-quality question answer pairs that encompass a wide range of first aid and emergency response scenarios. The dataset was generated using a Large Language Model, ChatGPT-4o-mini, with prompt-based in-context learning, using texts from the Vital First Aid Book (2019). We applied preprocessing steps such as text cleaning, contextual chunking, and filtering, followed by human validation to ensure accuracy, safety, and practical relevance of the QA pairs. FirstAidQA is designed to support instruction-tuning and fine-tuning of LLMs and Small Language Models (SLMs), enabling faster, more reliable, and offline-capable systems for emergency settings. We publicly release the dataset to advance research on safety-critical and resource-constrained AI applications in first aid and emergency response. The dataset is available on Hugging Face at https://huggingface.co/datasets/i-am-mushfiq/FirstAidQA.
- Abstract(参考訳): 緊急時には1秒ごとにカウントされる。
LLM(Large Language Models)は、時間に敏感で、低、あるいはゼロの接続性環境にデプロイされる。
現在のモデルは計算集約的で、最初の応答者や民間人がしばしば使用する低層デバイスには適さない。
軽量でドメイン固有のソリューションを開発する上での大きな障壁は、ファーストアシストと緊急対応に適した高品質なデータセットの欠如である。
このギャップに対処するために、我々は、広範囲な応急処置と緊急対応シナリオを含む、5500の高品質な質問応答ペアを含む合成データセットFirstAidQAを紹介した。
データセットはLarge Language Model、ChatGPT-4o-miniを使って生成され、2019年に出版されたVital First Aid Book(英語版)のテキストを用いて、インコンテキストの即時学習を行った。
テキストクリーニング,コンテキストチャンク,フィルタリングなどの前処理ステップを適用し,その上で人間の検証を行い,QAペアの精度,安全性,実用的妥当性を確認した。
FirstAidQAは、LLMとSmall Language Models(SLM)の命令チューニングと微調整をサポートするように設計されており、緊急時により速く、より信頼性が高く、オフラインで利用できるシステムを可能にする。
我々はこのデータセットを公開し、ファーストエイズと緊急対応のための安全クリティカルでリソースに制約のあるAIアプリケーションの研究を進める。
データセットはHugging Face at https://huggingface.co/datasets/i-am-mushfiq/FirstAidQAで公開されている。
関連論文リスト
- From Threat to Tool: Leveraging Refusal-Aware Injection Attacks for Safety Alignment [4.379304291229695]
LLM攻撃技術を応用したトレーニングフリーでモデルに依存しないフレームワークであるRefusal-Aware Adaptive Injection (RAAI)を紹介する。
RAAIは内部の拒絶信号を検出し、事前に定義されたフレーズを適応的に注入することで、有害で流用な完了を誘導する。
実験の結果,RAAIはLDMを効果的に脱獄させ,平均で2.15%から61.04%までの有害反応率を増加させた。
論文 参考訳(メタデータ) (2025-06-07T08:19:01Z) - LSM-2: Learning from Incomplete Wearable Sensor Data [65.58595667477505]
本稿では,Adaptive and Inherited Masking (AIM)を用いた第2世代Large Sensor Model (LSM-2)を紹介する。
AIMは明示的な計算を必要とせず、不完全なデータから直接堅牢な表現を学習する。
AIMを用いた LSM-2 は, 分類, 回帰, 生成モデルなど, 多様なタスクにまたがる最高の性能を実現する。
論文 参考訳(メタデータ) (2025-06-05T17:57:11Z) - Teaching Large Language Models to Maintain Contextual Faithfulness via Synthetic Tasks and Reinforcement Learning [80.27561080938747]
CANOEは、人間のアノテーションを使わずに、下流のさまざまなタスクにまたがる大きな言語モデルの忠実性の幻覚を減らすためのフレームワークである。
Dual-GRPOはルールベースの強化学習手法であり、合成された短値QAデータから得られる3つのルールベースの報酬を含む。
実験の結果、CANOEは11のタスクにまたがるLLMの忠実さを大幅に改善し、最も進歩したLLMよりも優れていた。
論文 参考訳(メタデータ) (2025-05-22T10:10:07Z) - QA-prompting: Improving Summarization with Large Language Models using Question-Answering [0.8460698440162888]
言語モデル(LM)は自然言語処理に革命をもたらし、プロンプトやテキスト内学習を通じて高品質なテキスト生成を可能にした。
本稿では,質問応答を要約生成の中間段階として利用する要約の簡易なプロンプト手法であるQA-promptingを提案する。
提案手法はキー情報を抽出し,テキストのコンテキストを強化して位置バイアスを緩和し,タスク毎の単一LMコールにおける要約を改善する。
論文 参考訳(メタデータ) (2025-05-20T13:29:36Z) - FRIDA to the Rescue! Analyzing Synthetic Data Effectiveness in Object-Based Common Sense Reasoning for Disaster Response [25.400882898288216]
フィールド推論および命令復号化エージェント(FRIDA)モデルを作成するためのデータセットとパイプラインを導入する。
私たちのパイプラインでは、ドメインの専門家と言語学者が知識を組み合わせて、高品質で数発のプロンプトを作ります。
そこで本研究では,FRIDAモデルがオブジェクトの物理的状態と関数データのみを学習し,FRIDAモデルがすべての合成データとベースモデルの両方で学習したモデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2025-02-25T18:51:06Z) - Give me Some Hard Questions: Synthetic Data Generation for Clinical QA [13.436187152293515]
本稿では,ゼロショット環境での大規模言語モデル(LLM)を用いた臨床QAデータの生成について検討する。
ナイーブなプロンプトが臨床シナリオの複雑さを反映しない簡単な質問をもたらすことがよくあります。
2つの臨床QAデータセットを用いた実験により,本手法はより難解な質問を発生し,ベースライン上での微調整性能を著しく向上することが示された。
論文 参考訳(メタデータ) (2024-12-05T19:35:41Z) - DIVKNOWQA: Assessing the Reasoning Ability of LLMs via Open-Domain
Question Answering over Knowledge Base and Text [73.68051228972024]
大きな言語モデル(LLM)は印象的な生成能力を示すが、内部知識に依存すると幻覚に悩まされる。
検索拡張LDMは、外部知識においてLLMを基盤とする潜在的な解決策として出現している。
論文 参考訳(メタデータ) (2023-10-31T04:37:57Z) - Principle-Driven Self-Alignment of Language Models from Scratch with
Minimal Human Supervision [84.31474052176343]
ChatGPTのような最近のAIアシスタントエージェントは、人間のアノテーションと人間のフィードバックからの強化学習を教師付き微調整(SFT)に頼り、アウトプットを人間の意図に合わせる。
この依存は、人間の監督を得るために高いコストがかかるため、AIアシスタントエージェントの真の可能性を大幅に制限することができる。
本稿では,AIエージェントの自己調整と人間監督の最小化のために,原則駆動推論とLLMの生成能力を組み合わせたSELF-ALIGNという新しいアプローチを提案する。
論文 参考訳(メタデータ) (2023-05-04T17:59:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。