論文の概要: Bridging LLMs and Symbolic Reasoning in Educational QA Systems: Insights from the XAI Challenge at IJCNN 2025
- arxiv url: http://arxiv.org/abs/2508.01263v1
- Date: Sat, 02 Aug 2025 08:46:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-05 18:25:21.791931
- Title: Bridging LLMs and Symbolic Reasoning in Educational QA Systems: Insights from the XAI Challenge at IJCNN 2025
- Title(参考訳): 教育用QAシステムにおけるLLMのブリッジ化とシンボリック推論:IJCNN2025におけるXAIチャレンジから
- Authors: Long S. T. Nguyen, Khang H. N. Vo, Thu H. A. Nguyen, Tuan C. Bui, Duc Q. Nguyen, Thanh-Tung Tran, Anh D. Nguyen, Minh L. Nguyen, Fabien Baldacci, Thang H. Bui, Emanuel Di Nardo, Angelo Ciaramella, Son H. Le, Ihsan Ullah, Lorenzo Di Rocco, Tho T. Quan,
- Abstract要約: 本稿では,Ho Chi Minh City University of Technology (HCMUT) と International Workshop on Trustworthiness and Reliability in Neurosymbolic AI (TRNS-AI) が共同で主催するハッカソン型コンペであるXAI Challenge 2025を総合的に分析する。
この課題は、学生が大学政策に関する質問に回答し、明確な論理に基づく自然言語の説明を生成できる質問応答システム(QA)の構築を参加者に委ねた。
- 参考スコア(独自算出の注目度): 1.0166217771455643
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The growing integration of Artificial Intelligence (AI) into education has intensified the need for transparency and interpretability. While hackathons have long served as agile environments for rapid AI prototyping, few have directly addressed eXplainable AI (XAI) in real-world educational contexts. This paper presents a comprehensive analysis of the XAI Challenge 2025, a hackathon-style competition jointly organized by Ho Chi Minh City University of Technology (HCMUT) and the International Workshop on Trustworthiness and Reliability in Neurosymbolic AI (TRNS-AI), held as part of the International Joint Conference on Neural Networks (IJCNN 2025). The challenge tasked participants with building Question-Answering (QA) systems capable of answering student queries about university policies while generating clear, logic-based natural language explanations. To promote transparency and trustworthiness, solutions were required to use lightweight Large Language Models (LLMs) or hybrid LLM-symbolic systems. A high-quality dataset was provided, constructed via logic-based templates with Z3 validation and refined through expert student review to ensure alignment with real-world academic scenarios. We describe the challenge's motivation, structure, dataset construction, and evaluation protocol. Situating the competition within the broader evolution of AI hackathons, we argue that it represents a novel effort to bridge LLMs and symbolic reasoning in service of explainability. Our findings offer actionable insights for future XAI-centered educational systems and competitive research initiatives.
- Abstract(参考訳): 人工知能(AI)の教育への統合が拡大し、透明性と解釈可能性の必要性が高まっている。
ハッカソンは長い間、迅速なAIプロトタイピングのためのアジャイル環境として機能してきたが、現実の教育状況において、eXplainable AI(XAI)に直接対応しているものはほとんどない。
本稿では,ホーチミン市立大学(HCMUT)が共同で主催するハッカソン型コンペであるXAI Challenge 2025と,国際ニューラルネットワーク合同会議(IJCNN 2025)の一環として開催されたTRNS-AIの信頼性と信頼性に関する国際ワークショップを包括的に分析する。
この課題は、学生が大学政策に関する質問に回答し、明確な論理に基づく自然言語の説明を生成できる質問応答システム(QA)の構築を参加者に委ねた。
透明性と信頼性を向上するためには、軽量大言語モデル(LLM)やハイブリッドLLMシンボリックシステムを使う必要がある。
高品質なデータセットが提供され、Z3バリデーションを備えたロジックベースのテンプレートを使用して構築され、専門家の学生レビューを通じて洗練され、現実世界の学術シナリオとの整合性を確保する。
本稿では,課題のモチベーション,構造,データセット構築,評価プロトコルについて述べる。
AIハッカソンのより広範な進化の中での競争の中で、私たちはLLMと説明可能性の象徴的推論を橋渡しする新しい試みであると主張している。
今後のXAI中心の教育システムと競争研究のイニシアチブについて,実用的な知見を提供する。
関連論文リスト
- Mind the XAI Gap: A Human-Centered LLM Framework for Democratizing Explainable AI [3.301842921686179]
我々は,専門家や非専門家のニーズに合わせて,透明性と人間中心の説明を保証する枠組みを導入する。
本フレームワークは,専門家以外の専門家が理解可能な1つの応答説明と専門家への技術的情報にカプセル化されている。
論文 参考訳(メタデータ) (2025-06-13T21:41:07Z) - Making Sense of the Unsensible: Reflection, Survey, and Challenges for XAI in Large Language Models Toward Human-Centered AI [11.454716478837014]
説明可能なAI(XAI)は、大きな言語モデル(LLM)と多様な利害関係者の不透明な推論の間の重要なインターフェースとして機能する。
本稿では, LLM における XAI の総合的考察と調査について, 説明可能性の本質は何か? 技術的・倫理的側面は何か?
我々は、説明責任は、信頼を育み、競争を可能とし、AIシステムを制度的な説明責任と人間中心の意思決定と整合させる、市民のインフラに進化しなければならないと論じている。
論文 参考訳(メタデータ) (2025-05-18T17:30:10Z) - Enterprise Architecture as a Dynamic Capability for Scalable and Sustainable Generative AI adoption: Bridging Innovation and Governance in Large Organisations [55.2480439325792]
生成人工知能(Generative Artificial Intelligence)は、イノベーションを促進し、多くの産業におけるガバナンスを再形成する可能性を持つ強力な新技術である。
しかし、テクノロジの複雑さ、ガバナンスのギャップ、リソースのミスアライメントなど、GenAIをスケールする上で大きな課題に直面している。
本稿では、大企業におけるGenAI導入の複雑な要件をエンタープライズアーキテクチャ管理が満たす方法について検討する。
論文 参考訳(メタデータ) (2025-05-09T07:41:33Z) - A Multi-Layered Research Framework for Human-Centered AI: Defining the Path to Explainability and Trust [2.4578723416255754]
人間中心型AI(HCAI)は人間の価値観との整合性を強調し、説明可能なAI(XAI)はAI決定をより理解しやすくすることで透明性を高める。
本稿では,HCAI と XAI を橋渡し,構造的説明可能性パラダイムを確立する新しい3層フレームワークを提案する。
我々の発見は、透明性、適応性、倫理的に整合したAIシステムを育成するHCXAI(Human-Centered Explainable AI)を前進させた。
論文 参考訳(メタデータ) (2025-04-14T01:29:30Z) - Converging Paradigms: The Synergy of Symbolic and Connectionist AI in LLM-Empowered Autonomous Agents [55.63497537202751]
コネクショニストと象徴的人工知能(AI)の収束を探求する記事
従来、コネクショナリストAIはニューラルネットワークにフォーカスし、シンボリックAIはシンボリック表現とロジックを強調していた。
大型言語モデル(LLM)の最近の進歩は、人間の言語をシンボルとして扱う際のコネクショナリストアーキテクチャの可能性を強調している。
論文 参考訳(メタデータ) (2024-07-11T14:00:53Z) - OlympicArena: Benchmarking Multi-discipline Cognitive Reasoning for Superintelligent AI [73.75520820608232]
我々は,11,163のバイリンガル問題を含む,テキストのみとインターリーブされたテキストイメージのモダリティを紹介する。
これらの課題には、7つのフィールドと62の国際オリンピック大会にわたる幅広い規律が含まれており、データ漏洩について厳格に調査されている。
我々の評価によると、GPT-4oのような先進モデルでさえ、複雑な推論とマルチモーダル統合における現在のAI制限を反映して、全体的な精度は39.97%しか達成していない。
論文 参考訳(メタデータ) (2024-06-18T16:20:53Z) - Applications of Explainable artificial intelligence in Earth system science [12.454478986296152]
このレビューは、説明可能なAI(XAI)の基礎的な理解を提供することを目的としている。
XAIはモデルをより透明にする強力なツールセットを提供する。
我々は、地球系科学(ESS)において、XAIが直面する4つの重要な課題を識別する。
AIモデルは未知を探索し、XAIは説明を提供することでギャップを埋める。
論文 参考訳(メタデータ) (2024-06-12T15:05:29Z) - Socialized Learning: A Survey of the Paradigm Shift for Edge Intelligence in Networked Systems [62.252355444948904]
本稿では,エッジインテリジェンス(EI)と社会学習(SL)の統合に関する文献レビューの結果について述べる。
SLは、エージェントの協調能力と集団知性を増幅することを目的とした、社会的原則と行動に基づく学習パラダイムである。
ソーシャル化アーキテクチャ、ソーシャル化トレーニング、ソーシャル化推論の3つの統合コンポーネントについて詳しく検討し、その強みと弱点を分析した。
論文 参考訳(メタデータ) (2024-04-20T11:07:29Z) - A User-Centred Framework for Explainable Artificial Intelligence in
Human-Robot Interaction [70.11080854486953]
本稿では,XAIのソーシャル・インタラクティブな側面に着目したユーザ中心型フレームワークを提案する。
このフレームワークは、エキスパートでないユーザのために考えられた対話型XAIソリューションのための構造を提供することを目的としている。
論文 参考訳(メタデータ) (2021-09-27T09:56:23Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - A multi-component framework for the analysis and design of explainable
artificial intelligence [0.0]
説明可能な人工知能(XAI)の研究の急速な成長は、2つの実質的な発展に続く。
AIシステムの透明性と信頼性を確保するための規制原則の作成を含む、信頼できるAIシステムを作成するための懸念の出現。
ここでは、XAI要件の戦略的在庫を提供し、XAIのアイデアの歴史とそれらの関連性を実証し、これらのアイデアを単純なフレームワークに合成し、5段階のXAIをキャリブレーションする。
論文 参考訳(メタデータ) (2020-05-05T01:48:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。