論文の概要: Stan: An LLM-based thermodynamics course assistant
- arxiv url: http://arxiv.org/abs/2603.04657v1
- Date: Wed, 04 Mar 2026 22:44:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-06 22:06:10.997133
- Title: Stan: An LLM-based thermodynamics course assistant
- Title(参考訳): Stan: LLMベースの熱力学コースアシスタント
- Authors: Eric M. Furst, Vasudevan Venkateshwaran,
- Abstract要約: Stanは、私たちが二重の役割で開発し展開するデータパイプライン上に構築された、学部の化学工学熱力学コースのための一連のツールである。
学生側では、検索拡張世代(RAG)パイプラインが技術用語を抽出して自然言語クエリに答える。
インストラクター側では、同じ転写コーパスが構造化解析パイプラインを通して処理され、各単位のサマリーを生成する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Discussions of AI in education focus predominantly on student-facing tools -- chatbots, tutors, and problem generators -- while the potential for the same infrastructure to support instructors remains largely unexplored. We describe Stan, a suite of tools for an undergraduate chemical engineering thermodynamics course built on a data pipeline that we develop and deploy in dual roles: serving students and supporting instructors from a shared foundation of lecture transcripts and a structured textbook index. On the student side, a retrieval-augmented generation (RAG) pipeline answers natural-language queries by extracting technical terms, matching them against the textbook index, and synthesizing grounded responses with specific chapter and page references. On the instructor side, the same transcript corpus is processed through structured analysis pipelines that produce per-lecture summaries, identify student questions and moments of confusion, and catalog the anecdotes and analogies used to motivate difficult material -- providing a searchable, semester-scale record of teaching that supports course reflection, reminders, and improvement. All components, including speech-to-text transcription, structured content extraction, and interactive query answering, run entirely on locally controlled hardware using open-weight models (Whisper large-v3, Llama~3.1 8B) with no dependence on cloud APIs, ensuring predictable costs, full data privacy, and reproducibility independent of third-party services. We describe the design, implementation, and practical failure modes encountered when deploying 7--8 billion parameter models for structured extraction over long lecture transcripts, including context truncation, bimodal output distributions, and schema drift, along with the mitigations that resolved them.
- Abstract(参考訳): 教育におけるAIに関する議論は、主に学生向けツール(チャットボット、チューター、問題生成器)に焦点を当てている。
Stanは、データパイプライン上に構築された学部化学工学熱力学コースのためのツールスイートで、学生に提供し、講義の書き起こしと構造化された教科書インデックスの共有基盤からインストラクターを支援する。
学生側では、検索拡張世代(RAG)パイプラインが、技術用語を抽出し、教科書インデックスと照合し、特定の章やページ参照で接地応答を合成することで、自然言語クエリに答える。
インストラクター側では、同じ書き起こしコーパスが構造化された分析パイプラインを通して処理され、講義ごとの要約を作成し、生徒の質問や混乱の瞬間を特定し、難しい素材を動機付けるのに使用される逸話やアナロジーをカタログ化します。
音声からテキストへの書き起こし、構造化されたコンテンツ抽出、対話型クエリ応答を含むすべてのコンポーネントは、クラウドAPIに依存しないオープンウェイトモデル(Whisper large-v3, Llama~3.1 8B)を使用して、完全にローカル制御されたハードウェア上で動作し、予測可能なコスト、完全なデータプライバシ、サードパーティサービスに依存しない再現性を保証する。
そこで本稿では,長期講義のテキストから構造化された抽出のための7~8億のパラメータモデル(コンテキストトランケーション,バイモーダル出力分布,スキーマドリフトなど)をデプロイする際に発生する設計,実装,実践的障害モードについて述べる。
関連論文リスト
- ScholarGym: Benchmarking Deep Research Workflows on Academic Literature Retrieval [11.41528830724814]
本稿では,学術研究の再現性評価のためのシミュレーション環境であるScholarGymを紹介する。
決定論的検索を備えた570K論文の静的コーパス上に構築されたScholarGymは,2,536のクエリと専門家による注釈付き基底真理を提供する。
論文 参考訳(メタデータ) (2026-01-29T12:51:44Z) - From Context to EDUs: Faithful and Structured Context Compression via Elementary Discourse Unit Decomposition [46.36937947958481]
グローバルな構造と細かな詳細の両方を保存するために設計された,新しい明示的圧縮フレームワークを提案する。
提案手法は,構造的コンテキスト圧縮を構造的テーマ選択プロセスとして再構成する。
提案手法は,最先端構造予測精度を実現し,フロンティアLLMを著しく上回っている。
論文 参考訳(メタデータ) (2025-12-16T09:52:58Z) - Thinking Like a Student: AI-Supported Reflective Planning in a Theory-Intensive Computer Science Course [1.5229257192293202]
新型コロナウイルスの感染拡大を受け、多くの大学が補足的な「強化」を実施。
本稿では,形式的手法と計算モデルに関する学部課程における強化セッションの再設計について報告する。
介入は学生からの肯定的なフィードバックを受け、自信の向上、不安の軽減、明快さの向上を示唆した。
論文 参考訳(メタデータ) (2025-10-31T12:35:18Z) - AI-driven formative assessment and adaptive learning in data-science education: Evaluating an LLM-powered virtual teaching assistant [6.874351093155318]
VITA(Virtual Teaching Assistants)は、大規模言語モデル(LLM)を搭載したボット(BotCaptain)を組み込んだ適応型分散学習プラットフォームである。
記事では、チャットログをExperience API(xAPI)ステートメントに変換するエンドツーエンドのデータパイプラインについて説明する。
今後の作業は、プラットフォームの適応的なインテリジェンスを洗練し、さまざまな教育環境に適用性を検討する。
論文 参考訳(メタデータ) (2025-09-17T11:27:45Z) - Mixture of Structural-and-Textual Retrieval over Text-rich Graph Knowledge Bases [78.62158923194153]
テキストリッチなグラフ知識ベース(TG-KB)は、テキストおよび構造的知識を提供することで、クエリに応答する上でますます重要になっている。
本研究では,これら2種類の知識を計画・推論・組織化フレームワークを用いて検索するための構造・テキスト検索(MoR)の混合を提案する。
論文 参考訳(メタデータ) (2025-02-27T17:42:52Z) - Learning Disentangled Speech Representations [0.412484724941528]
SynSpeechは、非絡み合った音声表現の研究を可能にするために設計された、新しい大規模合成音声データセットである。
本稿では, 線形探索と教師付きアンタングル化指標を併用して, アンタングル化表現学習手法を評価する枠組みを提案する。
SynSpeechは、さまざまな要因のベンチマークを促進し、ジェンダーや話し方のようなより単純な機能の切り離しを期待できると同時に、話者アイデンティティのような複雑な属性を分離する際の課題を強調します。
論文 参考訳(メタデータ) (2023-11-04T04:54:17Z) - DIVKNOWQA: Assessing the Reasoning Ability of LLMs via Open-Domain
Question Answering over Knowledge Base and Text [73.68051228972024]
大きな言語モデル(LLM)は印象的な生成能力を示すが、内部知識に依存すると幻覚に悩まされる。
検索拡張LDMは、外部知識においてLLMを基盤とする潜在的な解決策として出現している。
論文 参考訳(メタデータ) (2023-10-31T04:37:57Z) - Demonstrate-Search-Predict: Composing retrieval and language models for
knowledge-intensive NLP [77.817293104436]
本稿では,LMとRMの間の洗練されたパイプラインにおいて,自然言語テキストを渡すことに依存するフレームワークを提案する。
我々は、オープンドメイン、マルチホップ、会話設定で質問に答えるための新しいDSPプログラムを作成した。
論文 参考訳(メタデータ) (2022-12-28T18:52:44Z) - SOLIS -- The MLOps journey from data acquisition to actionable insights [62.997667081978825]
本稿では,基本的なクロスプラットフォームテンソルフレームワークとスクリプト言語エンジンを使用しながら,すべての要件をサポートする統合デプロイメントパイプラインとフリー・ツー・オペレートアプローチを提案する。
しかし、このアプローチは、実際のプロダクショングレードシステムに機械学習機能を実際にデプロイするために必要な手順やパイプラインを提供していない。
論文 参考訳(メタデータ) (2021-12-22T14:45:37Z) - Abstractive Summarization of Spoken and Written Instructions with BERT [66.14755043607776]
本稿では,BERTSumモデルの最初の対話型言語への応用について述べる。
我々は多種多様な話題にまたがるナレーションビデオの抽象要約を生成する。
我々は、これをインテリジェントな仮想アシスタントの機能として統合し、要求に応じて文字と音声の両方の指導内容の要約を可能にすることを想定する。
論文 参考訳(メタデータ) (2020-08-21T20:59:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。