論文の概要: CGRA-DeBERTa Concept Guided Residual Augmentation Transformer for Theologically Islamic Understanding
- arxiv url: http://arxiv.org/abs/2602.15139v1
- Date: Mon, 16 Feb 2026 19:36:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-18 16:03:17.885936
- Title: CGRA-DeBERTa Concept Guided Residual Augmentation Transformer for Theologically Islamic Understanding
- Title(参考訳): CGRA-DeBERTa 概念ガイドによる宗教的イスラム教理解のための残留拡張変換器
- Authors: Tahir Hussain, Saddam Hussain Khan,
- Abstract要約: CGRA DeBERTaはカスタマイズされたDeBERTaトランスフォーマーのバックボーン上に構築されており、軽量のLoRAベースのアダプションと残留概念のゲーティング機構を備えている。
本稿では,Shih al Bukhari とSahih Muslim のテキストから,特別に構築された 42591 QA 対のデータセットを用いてCGRA のトレーニングを行った結果について報告する。
- 参考スコア(独自算出の注目度): 0.7857499581522376
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Accurate QA over classical Islamic texts remains challenging due to domain specific semantics, long context dependencies, and concept sensitive reasoning. Therefore, a new CGRA DeBERTa, a concept guided residual domain augmentation transformer framework, is proposed that enhances theological QA over Hadith corpora. The CGRA DeBERTa builds on a customized DeBERTa transformer backbone with lightweight LoRA based adaptations and a residual concept aware gating mechanism. The customized DeBERTa embedding block learns global and positional context, while Concept Guided Residual Blocks incorporate theological priors from a curated Islamic Concept Dictionary of 12 core terms. Moreover, the Concept Gating Mechanism selectively amplifies semantically critical tokens via importance weighted attention, applying differential scaling from 1.04 to 3.00. This design preserves contextual integrity, strengthens domain-specific semantic representations, and enables accurate, efficient span extraction while maintaining computational efficiency. This paper reports the results of training CGRA using a specially constructed dataset of 42591 QA pairs from the text of Sahih alBukhari and Sahih Muslim. While BERT achieved an EM score of 75.87 and DeBERTa one of 89.77, our model scored 97.85 and thus surpassed them by 8.08 on an absolute scale, all while adding approximately 8 inference overhead due to parameter efficient gating. The qualitative evaluation noted better extraction and discrimination and theological precision. This study presents Hadith QA systems that are efficient, interpretable, and accurate and that scale provide educational materials with necessary theological nuance.
- Abstract(参考訳): 古典的なイスラームのテキストに対する正確なQAは、ドメイン固有の意味論、長い文脈依存、概念に敏感な推論のために依然として困難である。
そこで,新たなCGRA DeBERTa(残留領域拡張変換フレームワーク)が提案され,ハディスコーパス上の神学的QAが向上した。
CGRA DeBERTaはカスタマイズされたDeBERTaトランスフォーマーのバックボーン上に構築されており、軽量のLoRAベースのアダプションと残留概念のゲーティング機構を備えている。
カスタマイズされたDeBERTa埋め込みブロックは、グローバルと位置のコンテキストを学習し、Concept Guided Residual Blocksは、12のコア用語のキュレートされたISIS概念辞書から神学的先入観を取り入れている。
さらに、概念ゲーティング機構は重要度重み付けによる意味クリティカルトークンを選択的に増幅し、1.04から3.00への微分スケーリングを適用する。
この設計は文脈整合性を保ち、ドメイン固有の意味表現を強化し、計算効率を維持しながら正確で効率的なスパン抽出を可能にする。
本稿では,Shih al Bukhari とSahih Muslim のテキストから,特別に構築された 42591 QA 対のデータセットを用いてCGRA のトレーニングを行った結果について報告する。
BERT は EM スコア 75.87 と DeBERTa を89.77 で達成したが、我々のモデルは97.85 であり、絶対スケールで8.08 を上回った。
質的評価は、より良い抽出、識別、神学的精度を示した。
本研究は, 効率的, 解釈可能, 正確で, 必要な神学的ニュアンスを教育材料に提供するハディスQAシステムを提案する。
関連論文リスト
- Implementing a Sharia Chatbot as a Consultation Medium for Questions About Islam [0.0]
このシステムは、クルアーン、ハディス、学術的なファトワといった真正な情報源から、25,000の質問応答対のキュレートされたデータセットを処理する。
プロトタイプは、Fiqh、aqidah、ibadah、muamalahなどのさまざまなトピックで機能テストにおいて87%のセマンティックな精度を実現している。
論文 参考訳(メタデータ) (2025-12-18T15:15:46Z) - Knowledge-Informed Neural Network for Complex-Valued SAR Image Recognition [51.03674130115878]
本稿では,新しい「圧縮集約圧縮」アーキテクチャ上に構築された軽量なフレームワークであるKnowledge-Informed Neural Network(KINN)を紹介する。
KINNはパラメータ効率の認識における最先端を確立し、データスカースとアウト・オブ・ディストリビューションのシナリオにおいて例外的な一般化を提供する。
論文 参考訳(メタデータ) (2025-10-23T07:12:26Z) - Inducing Faithfulness in Structured Reasoning via Counterfactual Sensitivity [6.908972852063454]
大規模言語モデルは、欠陥や無関係な推論トレースに依存しながら、正しい答えを生成することが多い。
本稿では,新しい学習目標であるtextbfCounterfactual Sensitivity Regularization (CSR)を紹介する。
CSRは、標準的な微調整とプロセスの監督に対する忠実度を最大70パーセント向上させる。
論文 参考訳(メタデータ) (2025-09-01T15:18:46Z) - ERIS: An Energy-Guided Feature Disentanglement Framework for Out-of-Distribution Time Series Classification [51.07970070817353]
理想的な時系列分類(TSC)は不変表現をキャプチャできるべきである。
現在の手法は、真に普遍的な特徴を分離するために必要な意味的な方向性を欠いている。
本稿では,シフト・ロバストネス・フレームワークのためのエンドツーエンドのエネルギー規則化情報を提案する。
論文 参考訳(メタデータ) (2025-08-19T12:13:41Z) - SPEED: Scalable, Precise, and Efficient Concept Erasure for Diffusion Models [56.83154571623655]
モデルパラメータを直接編集する効率的な概念消去手法であるSPEEDを導入する。
Speedyは、パラメータ更新がターゲット以外の概念に影響しないモデル編集スペースであるnullスペースを検索する。
たった5秒で100のコンセプトを消去しました。
論文 参考訳(メタデータ) (2025-03-10T14:40:01Z) - A Benchmark Dataset with Larger Context for Non-Factoid Question Answering over Islamic Text [0.16385815610837165]
本稿では,Quranic Tafsir と Ahadith の領域内で質問応答を目的とした包括的データセットについて紹介する。
このデータセットは、73,000以上の質問応答ペアからなる堅牢なコレクションで構成されており、この特殊なドメインで報告されている最大のデータセットである。
本稿では,データセットのコントリビューションを強調しながら,その後の人的評価から,既存の自動評価手法の限界に関する批判的な洞察が得られた。
論文 参考訳(メタデータ) (2024-09-15T19:50:00Z) - Few-Shot Image Quality Assessment via Adaptation of Vision-Language Models [93.91086467402323]
Gradient-Regulated Meta-Prompt IQA Framework (GRMP-IQA) は、視覚言語事前学習モデルのCLIPをIQAタスクに効率よく適応させるように設計されている。
GRMP-IQAは、 (i) Meta-Prompt 事前学習モジュールと (ii) Quality-Aware Gradient Regularization の2つのコアモジュールから構成される。
論文 参考訳(メタデータ) (2024-09-09T07:26:21Z) - Text Classification Based on Knowledge Graphs and Improved Attention
Mechanism [12.008192698720947]
モデルは文字レベルと単語レベルの両方で動作し、概念を統合することで理解を深める。
その性能はAGNews、Ohsumed、TagMyNewsなどのデータセットで実証されており、それぞれ75.1%、58.7%、68.5%の精度が達成されている。
論文 参考訳(メタデータ) (2024-01-07T22:20:55Z) - A general framework for defining and optimizing robustness [74.67016173858497]
分類器の様々な種類の堅牢性を定義するための厳密でフレキシブルなフレームワークを提案する。
我々の概念は、分類器の堅牢性は正確性とは無関係な性質と考えるべきであるという仮定に基づいている。
我々は,任意の分類モデルに適用可能な,非常に一般的なロバスト性フレームワークを開発する。
論文 参考訳(メタデータ) (2020-06-19T13:24:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。