論文の概要: Few-Shot Prompting for Extractive Quranic QA with Instruction-Tuned LLMs
- arxiv url: http://arxiv.org/abs/2508.06103v1
- Date: Fri, 08 Aug 2025 08:02:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-11 20:39:06.130989
- Title: Few-Shot Prompting for Extractive Quranic QA with Instruction-Tuned LLMs
- Title(参考訳): 命令型LLMを用いた抽出クレーンQAのFew-Shot Prompting
- Authors: Mohamed Basem, Islam Oshallah, Ali Hamdi, Ammar Mohammed,
- Abstract要約: 複雑な言語、独特な用語、そしてテキストにおける深い意味に関する課題に対処する。
2つ目は、GeminiやDeepSeekのような命令調整された大きな言語モデルで、ほとんどショットプロンプトを使用しない。
スパン抽出のための特殊アラビアプロンプトフレームワークが開発されている。
- 参考スコア(独自算出の注目度): 1.0124625066746595
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper presents two effective approaches for Extractive Question Answering (QA) on the Quran. It addresses challenges related to complex language, unique terminology, and deep meaning in the text. The second uses few-shot prompting with instruction-tuned large language models such as Gemini and DeepSeek. A specialized Arabic prompt framework is developed for span extraction. A strong post-processing system integrates subword alignment, overlap suppression, and semantic filtering. This improves precision and reduces hallucinations. Evaluations show that large language models with Arabic instructions outperform traditional fine-tuned models. The best configuration achieves a pAP10 score of 0.637. The results confirm that prompt-based instruction tuning is effective for low-resource, semantically rich QA tasks.
- Abstract(参考訳): 本稿では,Quranにおける抽出質問応答(QA)に対する2つの効果的なアプローチを提案する。
複雑な言語、独特な用語、そしてテキストにおける深い意味に関する課題に対処する。
2つ目は、GeminiやDeepSeekのような命令調整された大きな言語モデルで、ほとんどショットプロンプトを使用しない。
スパン抽出のための特殊アラビアプロンプトフレームワークが開発されている。
強力な後処理システムは、サブワードアライメント、重複抑制、セマンティックフィルタリングを統合している。
これにより精度が向上し幻覚が減少する。
評価の結果、アラビア語の指示を持つ大きな言語モデルは、伝統的な微調整されたモデルよりも優れていることが示された。
最高の構成では、APP10スコアが0.637に達する。
その結果,低リソースで意味豊かなQAタスクに対して,プロンプトベースの命令チューニングが有効であることが確認された。
関連論文リスト
- Enhanced Arabic Text Retrieval with Attentive Relevance Scoring [12.053940320312355]
アラビア語は自然言語処理と情報検索に特に挑戦している。
アラビア語の国際的重要性は高まっているが、NLPの研究やベンチマークの資源では未だに不足している。
本稿ではアラビア語に特化した拡張されたDense Passage Retrievalフレームワークを提案する。
論文 参考訳(メタデータ) (2025-07-31T10:18:28Z) - Long-context Non-factoid Question Answering in Indic Languages [39.66936316245065]
質問回答タスクは、与えられたコンテキストから回答を抽出する。
長期のコンテキストは、自己認識機構の複雑さのために課題を引き起こす。
Indic言語におけるQA性能向上のための文脈ショートニング手法について検討した。
論文 参考訳(メタデータ) (2025-04-18T10:43:21Z) - DARA: Decomposition-Alignment-Reasoning Autonomous Language Agent for Question Answering over Knowledge Graphs [70.54226917774933]
本稿では,DARA(Decomposition Alignment-Reasoning Agent)フレームワークを提案する。
DARAは2つのメカニズムを通じて、質問を形式的なクエリに効果的に解析する。
我々は,DARAがKGQAの最先端列挙およびランク付けに基づく手法に匹敵する性能が得られることを示す。
論文 参考訳(メタデータ) (2024-06-11T09:09:37Z) - SEMQA: Semi-Extractive Multi-Source Question Answering [94.04430035121136]
本稿では,複数ソースを半抽出的に要約することで,複数の質問に答える新しいQAタスクを提案する。
この種の最初のデータセットであるQuoteSumを作成し、自然および生成された質問に対する人間による半抽出的な回答を提示する。
論文 参考訳(メタデータ) (2023-11-08T18:46:32Z) - Take the Hint: Improving Arabic Diacritization with
Partially-Diacritized Text [4.863310073296471]
本稿では,任意のダイアクリティカルティクスを効果的にサポートするマルチソースモデルである2SDiacを提案する。
また、ランダムマスキングのレベルが異なる入力において、与えられたダイアクリティカルを活用できるトレーニングスキームであるガイドドラーニングを導入する。
論文 参考訳(メタデータ) (2023-06-06T10:18:17Z) - Speaker-Conditioned Hierarchical Modeling for Automated Speech Scoring [60.55025339250815]
本研究では、話者条件付き階層型モデリングと呼ばれる非ネイティブASSのための新しいディープラーニング手法を提案する。
本手法では, 口腔熟練度テストが候補に対して複数の応答を評価できるという事実を生かして, 候補に対して複数の応答を評価できる。これらの応答からコンテキストを抽出し, ネットワークに付加的な話者固有のコンテキストとして与えて, 特定の応答をスコアする。
論文 参考訳(メタデータ) (2021-08-30T07:00:28Z) - BERTese: Learning to Speak to BERT [50.76152500085082]
本論文では,より良い知識抽出に向けて直接最適化されたパラフレーズクエリ"BERTese"に自動書き換える手法を提案する。
私たちのアプローチが競合するベースラインを上回ることを実証的に示し、複雑なパイプラインの必要性を回避します。
論文 参考訳(メタデータ) (2021-03-09T10:17:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。