論文の概要: Aurora: Neuro-Symbolic AI Driven Advising Agent
- arxiv url: http://arxiv.org/abs/2602.17999v1
- Date: Fri, 20 Feb 2026 05:26:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-23 18:01:41.234503
- Title: Aurora: Neuro-Symbolic AI Driven Advising Agent
- Title(参考訳): Aurora:ニューロシンボリックAI駆動アドバイスエージェント
- Authors: Lorena Amanda Quincoso Lugones, Christopher Kverne, Nityam Sharadkumar Bhimani, Ana Carolina Oliveira, Agoritsa Polyzou, Christine Lisetti, Janki Bhimani,
- Abstract要約: 高等教育におけるアドバイスは、300:1を超えるアドバイザ・ツー・学生の比率で、厳しい緊張にさらされている。
本稿では,Auroraについて紹介する。Auroraはモジュール型ニューロシンボリックアドバイザリングエージェントで,検索強化生成(RAG),シンボリック推論,正規化されたカリキュラムデータベースを統一する。
シンボリックリガーとニューラルフルレンシを組み合わせることで、Auroraは正確で説明可能な、スケーラブルなAI駆動のアドバイスのためのパラダイムを前進させる。
- 参考スコア(独自算出の注目度): 0.22485007639406515
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Academic advising in higher education is under severe strain, with advisor-to-student ratios commonly exceeding 300:1. These structural bottlenecks limit timely access to guidance, increase the risk of delayed graduation, and contribute to inequities in student support. We introduce Aurora, a modular neuro-symbolic advising agent that unifies retrieval-augmented generation (RAG), symbolic reasoning, and normalized curricular databases to deliver policy-compliant, verifiable recommendations at scale. Aurora integrates three components: (i) a Boyce-Codd Normal Form (BCNF) catalog schema for consistent program rules, (ii) a Prolog engine for prerequisite and credit enforcement, and (iii) an instruction-tuned large language model for natural-language explanations of its recommendations. To assess performance, we design a structured evaluation suite spanning common and edge-case advising scenarios, including short-term scheduling, long-term roadmapping, skill-aligned pathways, and out-of-scope requests. Across this diverse set, Aurora improves semantic alignment with expert-crafted answers from 0.68 (Raw LLM baseline) to 0.93 (+36%), achieves perfect precision and recall in nearly half of in-scope cases, and consistently produces correct fallbacks for unanswerable prompts. On commodity hardware, Aurora delivers sub-second mean latency (0.71s across 20 queries), approximately 83X faster than a Raw LLM baseline (59.2s). By combining symbolic rigor with neural fluency, Aurora advances a paradigm for accurate, explainable, and scalable AI-driven advising.
- Abstract(参考訳): 高等教育における教育指導は厳しい負担を受けており、アドバイザーと学生の比率は300:1を超えることが一般的である。
これらの構造的ボトルネックは、ガイダンスへのタイムリーなアクセスを制限し、卒業の遅れのリスクを増大させ、学生支援の不平等に寄与する。
我々はAuroraを紹介した。Auroraはモジュール型ニューロシンボリックアドバイザリングエージェントで、検索強化世代(RAG)、シンボリック推論、正規化されたキュラーデータベースを統合して、ポリシーに準拠した検証可能なレコメンデーションを大規模に提供する。
Auroraは3つのコンポーネントを統合する。
(i)一貫したプログラムルールのためのボイスコッド正規形式(BCNF)カタログスキーマ。
二 前提条件及び信用執行のための Prolog エンジン
(三)その勧告を自然言語で説明するための指導指導型大規模言語モデル。
性能を評価するため,短期スケジューリング,長期ロードマップ作成,スキルアライン・パス,スコープ外要求など,共通シナリオとエッジケースのアドバイスシナリオにまたがる構造化評価スイートを設計した。
この多様なセット全体で、Auroraは専門家が作成した回答を0.68(Raw LLMベースライン)から0.93(+36%)に改善し、スコープ内ケースのほぼ半分で完全な精度とリコールを達成し、解決不能なプロンプトに対する正しいフォールバックを一貫して生成する。
コモディティハードウェアでは、AuroraはRaw LLMベースライン(59.2s)の約83倍高速なサブ秒平均遅延(20クエリで0.71s)を提供する。
シンボリックリガーとニューラルフルレンシを組み合わせることで、Auroraは正確で説明可能な、スケーラブルなAI駆動のアドバイスのためのパラダイムを前進させる。
関連論文リスト
- When RL Meets Adaptive Speculative Training: A Unified Training-Serving System [71.98182665273575]
Auroraは、生の推論トレースから直接投機子を直接学習することでループを閉じる統一的なトレーニングサービスシステムである。
我々の設計では,SGLangベースの推論サーバを非同期トレーニングサーバと統合し,サービス中断なしにホットスワップされた投機装置の更新を可能にする。
論文 参考訳(メタデータ) (2026-02-06T18:28:54Z) - Towards Sample-Efficient and Stable Reinforcement Learning for LLM-based Recommendation [56.92367609590823]
Long Chain-of-Thought (Long CoT)推論は、Large Language Models (LLMs)において有望であることを示している。
我々はLong CoTが本質的にシーケンシャルなレコメンデーションドメインに不適合であると主張している。
提案するRISER(Reinforced Item Space Exploration framework for Recommendation)を提案する。
論文 参考訳(メタデータ) (2026-01-31T10:02:43Z) - STARec: An Efficient Agent Framework for Recommender Systems via Autonomous Deliberate Reasoning [54.28691219536054]
我々は、自律的な熟考的推論機能を備えたレコメンデータシステムを支援する、ゆっくり考えられた拡張エージェントフレームワークSTARecを紹介する。
我々は,先進的推論モデルと嗜好整合型報酬形成から構造化知識の蒸留を組み合わせた2段階のパラダイムであるアンカー強化訓練を開発する。
MovieLens 1MとAmazon CDsベンチマークの実験では、STARecは最先端のベースラインと比較して、大幅なパフォーマンス向上を実現している。
論文 参考訳(メタデータ) (2025-08-26T08:47:58Z) - Breaking the Exploration Bottleneck: Rubric-Scaffolded Reinforcement Learning for General LLM Reasoning [46.610146536866445]
大規模言語モデル(LLM)は、推論能力の出現を促進するために強化学習(RL)の可能性を強調している。
本稿では,一般的な推論のための探索ボトルネックを解消するために,Scaffolded Reinforcement Learning (RuscaRL)を提案する。
我々は、RuscaRLがQwen2.5-7B-InstructをHealthBench-500で23.6から50.3に大幅に向上し、GPT-4.1を上回っていることを示した。
論文 参考訳(メタデータ) (2025-08-23T08:47:31Z) - R$^2$ec: Towards Large Recommender Models with Reasoning [59.32598867813266]
R$2$ecは、本質的な推論能力を持つ統一された大型レコメンデータモデルである。
R$2$ecは、推論チェーン生成と効率的なアイテム予測の両方を単一のモデルでサポートするデュアルヘッドアーキテクチャを導入している。
注釈付き推論データの欠如を克服するため、強化学習フレームワークであるRecPOを設計する。
論文 参考訳(メタデータ) (2025-05-22T17:55:43Z) - OR-Bench: An Over-Refusal Benchmark for Large Language Models [65.34666117785179]
大きな言語モデル(LLM)は、悪意のある出力を防ぐために慎重に安全アライメントを必要とする。
本研究では,大規模なオーバーリファレンスデータセットの自動生成手法を提案する。
OR-Benchは,最初の大規模オーバーリファレンスベンチマークである。
論文 参考訳(メタデータ) (2024-05-31T15:44:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。