論文の概要: RubiSCoT: A Framework for AI-Supported Academic Assessment
- arxiv url: http://arxiv.org/abs/2510.17309v1
- Date: Mon, 20 Oct 2025 08:52:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 00:56:39.374896
- Title: RubiSCoT: A Framework for AI-Supported Academic Assessment
- Title(参考訳): RubiSCoT:AI対応アカデミックアセスメントフレームワーク
- Authors: Thorsten Fröhlich, Tim Schlippe,
- Abstract要約: RubiSCoTは、提案から最終提出までの論文評価を強化するために設計された、AIをサポートするフレームワークである。
このフレームワークには、事前評価、多次元評価、コンテンツ抽出、ルーリックベースのスコアリング、詳細なレポートが含まれる。
- 参考スコア(独自算出の注目度): 0.042970700836450486
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The evaluation of academic theses is a cornerstone of higher education, ensuring rigor and integrity. Traditional methods, though effective, are time-consuming and subject to evaluator variability. This paper presents RubiSCoT, an AI-supported framework designed to enhance thesis evaluation from proposal to final submission. Using advanced natural language processing techniques, including large language models, retrieval-augmented generation, and structured chain-of-thought prompting, RubiSCoT offers a consistent, scalable solution. The framework includes preliminary assessments, multidimensional assessments, content extraction, rubric-based scoring, and detailed reporting. We present the design and implementation of RubiSCoT, discussing its potential to optimize academic assessment processes through consistent, scalable, and transparent evaluation.
- Abstract(参考訳): 学術論文の評価は高等教育の基盤であり、厳格さと整合性を確保している。
従来の手法は有効ではあるが、時間がかかり、評価器の変動が生じる。
本稿では、提案から最終提出までの論文評価を強化するためのAI支援フレームワークであるRubiSCoTについて述べる。
RubiSCoTは、大規模言語モデル、検索拡張生成、構造化連鎖プロンプトといった高度な自然言語処理技術を使用して、一貫性のあるスケーラブルなソリューションを提供する。
このフレームワークには、事前評価、多次元評価、コンテンツ抽出、ルーリックベースのスコアリング、詳細なレポートが含まれる。
本稿では,RubiSCoTの設計と実装について紹介し,一貫性,スケーラブル,透明な評価を通じて学術的評価プロセスを最適化する可能性について論じる。
関連論文リスト
- Teaching at Scale: Leveraging AI to Evaluate and Elevate Engineering Education [3.557803321422781]
本稿では,大規模言語モデルを用いた定性的な学生フィードバックのためのスケーラブルなAI支援フレームワークを提案する。
このシステムは階層的な要約、匿名化、例外処理を用いて、オープンなコメントから実行可能なテーマを抽出する。
大規模な工学系大学への展開が成功したことを報告します。
論文 参考訳(メタデータ) (2025-08-01T20:27:40Z) - Ratas framework: A comprehensive genai-based approach to rubric-based marking of real-world textual exams [3.4132239125074206]
RATAS(Rubric Automated Tree-based Answer Scoring)は、テキスト応答のルーリックベースのグレーディングに最先端の生成AIモデルを活用する新しいフレームワークである。
RATASは、幅広いグレーディングルーリックをサポートし、主観的評価を可能にし、割り当てられたスコアに対して構造化された説明可能な論理を生成するように設計されている。
論文 参考訳(メタデータ) (2025-05-27T22:17:27Z) - Monocle: Hybrid Local-Global In-Context Evaluation for Long-Text Generation with Uncertainty-Based Active Learning [63.531262595858]
分数的・対数的アプローチは、総合的な評価タスクを局所的なスコアリングタスクに分割し、続いて最終的なグローバルアセスメントを行う。
局所的およびグローバルな評価の両面での性能を高めるために,人間のアノテーションを活用するハイブリッド・イン・コンテキスト・ラーニング・アプローチを導入する。
最後に,人間のアノテーションに対するデータサンプルを効率的に選択する不確実性に基づく能動学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2025-05-26T16:39:41Z) - Learning to Align Multi-Faceted Evaluation: A Unified and Robust Framework [61.38174427966444]
大規模言語モデル(LLM)は、様々なシナリオにおける自動評価のために、より広く使われている。
従来の研究では、強力なプロプライエタリモデルの評価と判断を再現するために、オープンソースのLLMを微調整しようと試みてきた。
本稿では,評価基準を適応的に定式化し,テキストベースとコード駆動分析の両方を合成する新しい評価フレームワークARJudgeを提案する。
論文 参考訳(メタデータ) (2025-02-26T06:31:45Z) - Improving Academic Skills Assessment with NLP and Ensemble Learning [7.803554057024728]
本研究は,自然言語処理(NLP)の進歩を生かして基礎的学術的スキルを評価する上での課題について論じる。
提案手法は,BERT,RoBERTa,BART,DeBERTa,T5を含む複数の最先端NLPモデルを統合する。
この手法には、詳細なデータ前処理、特徴抽出、モデル性能を最適化するための擬似ラベル学習が含まれる。
論文 参考訳(メタデータ) (2024-09-23T23:43:43Z) - Multi-Dimensional Evaluation of Text Summarization with In-Context
Learning [79.02280189976562]
本稿では,テキスト内学習を用いた多次元評価器として,大規模言語モデルの有効性について検討する。
実験の結果,テキスト要約作業において,文脈内学習に基づく評価手法が学習評価フレームワークと競合していることが判明した。
次に、テキスト内サンプルの選択や数などの要因がパフォーマンスに与える影響を分析する。
論文 参考訳(メタデータ) (2023-06-01T23:27:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。