論文の概要: AI-University: An LLM-based platform for instructional alignment to scientific classrooms
- arxiv url: http://arxiv.org/abs/2504.08846v1
- Date: Fri, 11 Apr 2025 01:26:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-15 16:56:19.906348
- Title: AI-University: An LLM-based platform for instructional alignment to scientific classrooms
- Title(参考訳): AI-University:科学教室への教育的アライメントのためのLLMベースのプラットフォーム
- Authors: Mostafa Faghih Shojaei, Rahul Gulati, Benjamin A. Jasperson, Shangshang Wang, Simone Cimolato, Dangli Cao, Willie Neiswanger, Krishna Garikipati,
- Abstract要約: AI主導のコースコンテンツ配信のための柔軟なフレームワークであるAI University(AI-U)を紹介する。
コアとなるAI-Uは、検索強化世代(RAG)を備えた大規模言語モデル(LLM)を微調整し、講義ビデオ、ノート、教科書からインストラクター対応の応答を生成する。
本稿では、学習データを体系的に構築し、ローランド適応(LoRA)を用いたオープンソースのLLMを微調整し、RAGベースの合成による応答を最適化するスケーラブルなパイプラインを提案する。
- 参考スコア(独自算出の注目度): 12.733784667573211
- License:
- Abstract: We introduce AI University (AI-U), a flexible framework for AI-driven course content delivery that adapts to instructors' teaching styles. At its core, AI-U fine-tunes a large language model (LLM) with retrieval-augmented generation (RAG) to generate instructor-aligned responses from lecture videos, notes, and textbooks. Using a graduate-level finite-element-method (FEM) course as a case study, we present a scalable pipeline to systematically construct training data, fine-tune an open-source LLM with Low-Rank Adaptation (LoRA), and optimize its responses through RAG-based synthesis. Our evaluation - combining cosine similarity, LLM-based assessment, and expert review - demonstrates strong alignment with course materials. We also have developed a prototype web application, available at https://my-ai-university.com, that enhances traceability by linking AI-generated responses to specific sections of the relevant course material and time-stamped instances of the open-access video lectures. Our expert model is found to have greater cosine similarity with a reference on 86% of test cases. An LLM judge also found our expert model to outperform the base Llama 3.2 model approximately four times out of five. AI-U offers a scalable approach to AI-assisted education, paving the way for broader adoption in higher education. Here, our framework has been presented in the setting of a class on FEM - a subject that is central to training PhD and Master students in engineering science. However, this setting is a particular instance of a broader context: fine-tuning LLMs to research content in science.
- Abstract(参考訳): 我々は、インストラクターの指導スタイルに適応するAI駆動コースコンテンツ配信のための柔軟なフレームワークであるAI-U(AI University)を紹介する。
コアとなるAI-Uは、検索強化世代(RAG)を備えた大規模言語モデル(LLM)を微調整し、講義ビデオ、ノート、教科書からインストラクター対応の応答を生成する。
大学院レベルの有限要素法(FEM)コースをケーススタディとして、トレーニングデータを体系的に構築し、ローランド適応(LoRA)を用いたオープンソースのLLMを微調整し、RAGベースの合成により応答を最適化するスケーラブルなパイプラインを提案する。
我々の評価は,コサイン類似性,LCMに基づく評価,および専門家による評価を組み合わせることで,コース資料との強い整合性を示すものである。
我々はまた、AI生成応答を関連するコース教材の特定セクションとオープンアクセスビデオ講義のタイムスタンプインスタンスにリンクすることでトレーサビリティを向上させるプロトタイプWebアプリケーションを開発した。
専門家モデルでは,86%のテストケースを参照して,コサインの類似性が高いことがわかった。
LLMの審査員は、Llama 3.2のベースモデルを5回中4回上回る専門家モデルも発見した。
AI-Uは、AI支援教育に対するスケーラブルなアプローチを提供する。
そこで本研究では,工学科のPhDや修士課程の学生を育成する上で中心的なテーマであるFEMの授業の設定において,本フレームワークが紹介されている。
しかし、この設定は、科学におけるコンテンツを研究するための微調整LDMという、より広い文脈の特別な例である。
関連論文リスト
- Trust at Your Own Peril: A Mixed Methods Exploration of the Ability of Large Language Models to Generate Expert-Like Systems Engineering Artifacts and a Characterization of Failure Modes [0.0]
そこでは,人間の専門家が作成したSEアーティファクトをベンチマークとして用いた経験的探索の結果を報告する。
次に、AI生成されたアーティファクトとベンチマークを比較するために、2倍の混合メソッドアプローチを採用しました。
2つの素材は非常に似ているように見えるが、AIが生成したアーティファクトは深刻な障害モードを示しており、検出は困難である。
論文 参考訳(メタデータ) (2025-02-13T17:05:18Z) - An efficient approach to represent enterprise web application structure using Large Language Model in the service of Intelligent Quality Engineering [0.0]
本稿では,Large Language Models (LLM) を用いたエンタープライズWebアプリケーション構造を表現する新しい手法を提案する。
LLMの少数ショット学習能力を最適化する階層的表現手法を提案する。
我々の方法論は、自動ソフトウェアテストにおけるジェネレーティブAI技術の使用に関する既存の課題に対処する。
論文 参考訳(メタデータ) (2025-01-12T15:10:57Z) - BoViLA: Bootstrapping Video-Language Alignment via LLM-Based Self-Questioning and Answering [14.18251228789751]
自己調査と回答を通じて,学習中の質問サンプルを増強する自己学習フレームワークであるBoViLAを提案する。
我々は,不確実性を推定し,自己生成質問の品質を評価するために,Evidential Deep Learning (EDL)を導入した。
論文 参考訳(メタデータ) (2024-09-17T05:17:37Z) - Evaluating the Impact of Advanced LLM Techniques on AI-Lecture Tutors for a Robotics Course [0.35132421583441026]
本研究では,大規模言語モデル(LLM)を人工知能を用いた大学授業用チューターとして評価する。
特に、プロンプトエンジニアリング、Retrieval-Augmented-Generation (RAG)、ファインチューニングなど、様々な高度な技術が利用されている。
以上の結果から,RAGと迅速なエンジニアリングを組み合わせることで,モデル応答が大幅に向上し,より優れた事実解が得られることが示唆された。
論文 参考訳(メタデータ) (2024-08-02T19:49:19Z) - Self-Exploring Language Models: Active Preference Elicitation for Online Alignment [88.56809269990625]
本研究では, 分布域外領域を積極的に探索するために, 潜在的に高次応答に対して楽観的に偏りを呈する2段階的客観性を提案する。
実験の結果,Zephyr-7B-SFTとLlama-3-8B-Instructモデルで微調整した場合,SELM(Self-Exploring Language Models)は命令追従ベンチマークの性能を大幅に向上させることがわかった。
論文 参考訳(メタデータ) (2024-05-29T17:59:07Z) - ST-LLM: Large Language Models Are Effective Temporal Learners [58.79456373423189]
大規模言語モデル(LLM)は、テキストの理解と生成において印象的な能力を示した。
ビデオベースの対話システムでビデオを効果的にエンコードし、理解する方法は、まだ解決されていない。
LLM内部の時空間シーケンスをモデル化したビデオLLMベースラインST-LLMを提案する。
論文 参考訳(メタデータ) (2024-03-30T10:11:26Z) - Are You Being Tracked? Discover the Power of Zero-Shot Trajectory
Tracing with LLMs! [3.844253028598048]
LLMTrackは、ゼロショット軌道認識にLLMをどのように活用できるかを示すモデルである。
本研究では,屋内シナリオと屋外シナリオを特徴とする異なる軌跡を用いて,現実のデータセットを用いてモデルを評価した。
論文 参考訳(メタデータ) (2024-03-10T12:50:35Z) - FOFO: A Benchmark to Evaluate LLMs' Format-Following Capability [70.84333325049123]
FoFoは、大規模言語モデル(LLM)の複雑なドメイン固有のフォーマットに従う能力を評価するための先駆的なベンチマークである。
本稿では,大規模言語モデル(LLM)の複雑なドメイン固有フォーマットに従う能力を評価するための先駆的ベンチマークであるFoFoを提案する。
論文 参考訳(メタデータ) (2024-02-28T19:23:27Z) - Q-Align: Teaching LMMs for Visual Scoring via Discrete Text-Defined
Levels [95.44077384918725]
スコアの代わりにテキスト定義のレーティングレベルを持つ大規模マルチモーダリティモデル(LMM)を提案する。
提案したQ-Alignは、画像品質評価(IQA)、画像美学評価(IAA)、映像品質評価(VQA)タスクにおける最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2023-12-28T16:10:25Z) - A Self-enhancement Approach for Domain-specific Chatbot Training via
Knowledge Mining and Digest [62.63606958140248]
大規模言語モデル(LLM)は、特定のドメインで複雑な知識要求クエリを扱う際に、しばしば困難に直面する。
本稿では、ドメイン固有のテキストソースから関連知識を効果的に抽出し、LLMを強化する新しいアプローチを提案する。
我々は知識マイナー、すなわちLLMinerを訓練し、関連する文書から質問応答対を自律的に抽出する。
論文 参考訳(メタデータ) (2023-11-17T16:09:10Z) - LAMM: Language-Assisted Multi-Modal Instruction-Tuning Dataset,
Framework, and Benchmark [81.42376626294812]
本稿では,Language-Assisted Multi-Modalインストラクションチューニングデータセット,フレームワーク,ベンチマークを提案する。
我々の目標は、MLLMのトレーニングと評価のための成長するエコシステムとしてLAMMを確立することです。
本稿では,2次元および3次元視覚のための広範囲な視覚タスクをカバーする包括的データセットとベンチマークを提案する。
論文 参考訳(メタデータ) (2023-06-11T14:01:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。