論文の概要: SciEducator: Scientific Video Understanding and Educating via Deming-Cycle Multi-Agent System
- arxiv url: http://arxiv.org/abs/2511.17943v1
- Date: Sat, 22 Nov 2025 06:54:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-25 18:34:24.531227
- Title: SciEducator: Scientific Video Understanding and Educating via Deming-Cycle Multi-Agent System
- Title(参考訳): SciEducator: Deming-Cycle Multi-Agent Systemによる科学ビデオ理解と教育
- Authors: Zhiyu Xu, Weilong Yan, Yufei Shi, Xin Meng, Tao He, Huiping Zhuang, Ming Li, Hehe Fan,
- Abstract要約: SciEducatorは、科学ビデオ理解と教育のための自己進化型マルチエージェントシステムである。
我々のデザインは、プラン-Do-Study-Actの哲学を自己進化的推論とフィードバックのメカニズムに再構成する。
特定の科学的プロセスに合わせて、マルチモーダルな教育コンテンツを作成できる。
- 参考スコア(独自算出の注目度): 42.24867393406526
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advancements in multimodal large language models (MLLMs) and video agent systems have significantly improved general video understanding. However, when applied to scientific video understanding and educating, a domain that demands external professional knowledge integration and rigorous step-wise reasoning, existing approaches often struggle. To bridge this gap, we propose SciEducator, the first iterative self-evolving multi-agent system for scientific video comprehension and education. Rooted in the classical Deming Cycle from management science, our design reformulates its Plan-Do-Study-Act philosophy into a self-evolving reasoning and feedback mechanism, which facilitates the interpretation of intricate scientific activities in videos. Moreover, SciEducator can produce multimodal educational content tailored to specific scientific processes, including textual instructions, visual guides, audio narrations, and interactive references. To support evaluation, we construct SciVBench, a benchmark consisting of 500 expert-verified and literature-grounded science QA pairs across five categories, covering physical, chemical, and everyday phenomena. Extensive experiments demonstrate that SciEducator substantially outperforms leading closed-source MLLMs (e.g., Gemini, GPT-4o) and state-of-the-art video agents on the benchmark, establishing a new paradigm for the community.
- Abstract(参考訳): マルチモーダル大言語モデル(MLLM)とビデオエージェントシステムの最近の進歩は、一般的なビデオ理解を大幅に改善した。
しかし、外部の専門的知識の統合と厳密なステップワイズ推論を必要とする分野である科学的なビデオ理解と教育に適用する場合、既存のアプローチはしばしば苦労する。
このギャップを埋めるために,SciEducatorを提案する。SciEducatorは,科学ビデオ理解と教育のための,最初の反復的自己進化型マルチエージェントシステムである。
経営科学から古典的デミングサイクルに根ざした私たちのデザインは、Plan-Do-Study-Actの哲学を自己進化的推論とフィードバックのメカニズムに再構成し、ビデオにおける複雑な科学活動の解釈を容易にする。
さらに、SciEducatorは、テキストインストラクション、ビジュアルガイド、オーディオナレーション、インタラクティブ参照など、特定の科学的プロセスに適したマルチモーダルな教育コンテンツを作成することができる。
SciVBenchは,5つのカテゴリにまたがって,500人の専門家による検証と文献による基礎科学QAペアからなるベンチマークであり,物理的,化学的,日常的な現象をカバーしている。
大規模な実験により、SciEducatorは、クローズドソースMLLM(例えば、Gemini、GPT-4o)と最先端のビデオエージェントをベンチマークで大幅に上回り、コミュニティのための新しいパラダイムを確立した。
関連論文リスト
- ExpVid: A Benchmark for Experiment Video Understanding & Reasoning [65.17173232816818]
科学実験ビデオ上でMLLMを体系的に評価する最初のベンチマークであるExpVidを紹介する。
ExpVid 上で 19 個のMLLM を評価し, 粗粒度認識に優れる一方で, 詳細さの曖昧化, 時間経過による状態変化の追跡, 実験手順と科学的成果のリンクに苦慮していることがわかった。
この結果から,特に高次推論において,プロプライエタリモデルとオープンソースモデルとの顕著なパフォーマンスギャップが明らかとなった。
論文 参考訳(メタデータ) (2025-10-13T16:45:28Z) - SciVideoBench: Benchmarking Scientific Video Reasoning in Large Multimodal Models [89.10286051587151]
SciVideoBenchは、科学的文脈における高度なビデオ推論を評価するために設計された厳密なベンチマークである。
SciVideoBenchは、最先端の科学実験ビデオから得られた、慎重に構築された1000の多重選択質問で構成されている。
我々の評価は、最先端のプロプライエタリおよびオープンソース LMM における大幅な性能低下を浮き彫りにしている。
論文 参考訳(メタデータ) (2025-10-09T17:59:23Z) - Learning Progression-Guided AI Evaluation of Scientific Models To Support Diverse Multi-Modal Understanding in NGSS Classroom [2.6572245224872835]
我々は, 様々なモデリング方法と静電気現象の説明法を反映した, NGSS対応マルチモーダルLPを構築した。
両評価モードにおける学習者の思考の多様性に基づくパーソナライズされたML駆動型フィードバックの設計を,LPがいかに導くかを示す。
論文 参考訳(メタデータ) (2025-09-16T22:12:15Z) - Many Heads Are Better Than One: Improved Scientific Idea Generation by A LLM-Based Multi-Agent System [62.832818186789545]
Virtual Scientists (VirSci) は、科学研究に固有のチームワークを模倣するために設計されたマルチエージェントシステムである。
VirSciは研究のアイデアを共同で生成し、評価し、洗練するエージェントのチームを組織している。
このマルチエージェントアプローチは、新しい科学的アイデアを生み出す上で、最先端の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-10-12T07:16:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。