論文の概要: SciEducator: Scientific Video Understanding and Educating via Deming-Cycle Multi-Agent System
- arxiv url: http://arxiv.org/abs/2511.17943v1
- Date: Sat, 22 Nov 2025 06:54:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-25 18:34:24.531227
- Title: SciEducator: Scientific Video Understanding and Educating via Deming-Cycle Multi-Agent System
- Title(参考訳): SciEducator: Deming-Cycle Multi-Agent Systemによる科学ビデオ理解と教育
- Authors: Zhiyu Xu, Weilong Yan, Yufei Shi, Xin Meng, Tao He, Huiping Zhuang, Ming Li, Hehe Fan,
- Abstract要約: SciEducatorは、科学ビデオ理解と教育のための自己進化型マルチエージェントシステムである。
我々のデザインは、プラン-Do-Study-Actの哲学を自己進化的推論とフィードバックのメカニズムに再構成する。
特定の科学的プロセスに合わせて、マルチモーダルな教育コンテンツを作成できる。
- 参考スコア(独自算出の注目度): 42.24867393406526
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advancements in multimodal large language models (MLLMs) and video agent systems have significantly improved general video understanding. However, when applied to scientific video understanding and educating, a domain that demands external professional knowledge integration and rigorous step-wise reasoning, existing approaches often struggle. To bridge this gap, we propose SciEducator, the first iterative self-evolving multi-agent system for scientific video comprehension and education. Rooted in the classical Deming Cycle from management science, our design reformulates its Plan-Do-Study-Act philosophy into a self-evolving reasoning and feedback mechanism, which facilitates the interpretation of intricate scientific activities in videos. Moreover, SciEducator can produce multimodal educational content tailored to specific scientific processes, including textual instructions, visual guides, audio narrations, and interactive references. To support evaluation, we construct SciVBench, a benchmark consisting of 500 expert-verified and literature-grounded science QA pairs across five categories, covering physical, chemical, and everyday phenomena. Extensive experiments demonstrate that SciEducator substantially outperforms leading closed-source MLLMs (e.g., Gemini, GPT-4o) and state-of-the-art video agents on the benchmark, establishing a new paradigm for the community.
- Abstract(参考訳): マルチモーダル大言語モデル(MLLM)とビデオエージェントシステムの最近の進歩は、一般的なビデオ理解を大幅に改善した。
しかし、外部の専門的知識の統合と厳密なステップワイズ推論を必要とする分野である科学的なビデオ理解と教育に適用する場合、既存のアプローチはしばしば苦労する。
このギャップを埋めるために,SciEducatorを提案する。SciEducatorは,科学ビデオ理解と教育のための,最初の反復的自己進化型マルチエージェントシステムである。
経営科学から古典的デミングサイクルに根ざした私たちのデザインは、Plan-Do-Study-Actの哲学を自己進化的推論とフィードバックのメカニズムに再構成し、ビデオにおける複雑な科学活動の解釈を容易にする。
さらに、SciEducatorは、テキストインストラクション、ビジュアルガイド、オーディオナレーション、インタラクティブ参照など、特定の科学的プロセスに適したマルチモーダルな教育コンテンツを作成することができる。
SciVBenchは,5つのカテゴリにまたがって,500人の専門家による検証と文献による基礎科学QAペアからなるベンチマークであり,物理的,化学的,日常的な現象をカバーしている。
大規模な実験により、SciEducatorは、クローズドソースMLLM(例えば、Gemini、GPT-4o)と最先端のビデオエージェントをベンチマークで大幅に上回り、コミュニティのための新しいパラダイムを確立した。
関連論文リスト
- ExpVid: A Benchmark for Experiment Video Understanding & Reasoning [65.17173232816818]
科学実験ビデオ上でMLLMを体系的に評価する最初のベンチマークであるExpVidを紹介する。
ExpVid 上で 19 個のMLLM を評価し, 粗粒度認識に優れる一方で, 詳細さの曖昧化, 時間経過による状態変化の追跡, 実験手順と科学的成果のリンクに苦慮していることがわかった。
この結果から,特に高次推論において,プロプライエタリモデルとオープンソースモデルとの顕著なパフォーマンスギャップが明らかとなった。
論文 参考訳(メタデータ) (2025-10-13T16:45:28Z) - Autonomous Agents for Scientific Discovery: Orchestrating Scientists, Language, Code, and Physics [82.55776608452017]
大規模言語モデル(LLM)は、人間の科学者、自然言語、コンピュータ言語とコード、物理学との相互作用を編成する柔軟性と汎用性を備えたフレームワークを提供する。
本稿では, LLMを基盤とした科学エージェントの展望と展望と, 科学発見のライフサイクルを変革する上でのその役割について述べる。
オープンな研究課題を特定し、より堅牢で汎用的で適応的な科学エージェントを構築するための有望な方向性を概説する。
論文 参考訳(メタデータ) (2025-10-10T22:26:26Z) - SciVideoBench: Benchmarking Scientific Video Reasoning in Large Multimodal Models [89.10286051587151]
SciVideoBenchは、科学的文脈における高度なビデオ推論を評価するために設計された厳密なベンチマークである。
SciVideoBenchは、最先端の科学実験ビデオから得られた、慎重に構築された1000の多重選択質問で構成されている。
我々の評価は、最先端のプロプライエタリおよびオープンソース LMM における大幅な性能低下を浮き彫りにしている。
論文 参考訳(メタデータ) (2025-10-09T17:59:23Z) - Learning Progression-Guided AI Evaluation of Scientific Models To Support Diverse Multi-Modal Understanding in NGSS Classroom [2.6572245224872835]
我々は, 様々なモデリング方法と静電気現象の説明法を反映した, NGSS対応マルチモーダルLPを構築した。
両評価モードにおける学習者の思考の多様性に基づくパーソナライズされたML駆動型フィードバックの設計を,LPがいかに導くかを示す。
論文 参考訳(メタデータ) (2025-09-16T22:12:15Z) - VideoAgent: Personalized Synthesis of Scientific Videos [24.440349159498286]
VideoAgentは、対話インタフェースを通じてパーソナライズされた科学的なビデオを合成する、新しいマルチエージェントフレームワークである。
VideoAgentはソース紙をきめ細かい資産ライブラリに解析し、静的スライドと動的アニメーションの両方を合成して複雑な概念を説明する物語の流れを編成する。
SciVidEvalは、マルチモーダルコンテンツ品質と同期のための自動メトリクスと、ビデオクイズに基づく人間による評価を組み合わせて知識伝達を測定する、このタスクのための最初の総合的なスイートである。
論文 参考訳(メタデータ) (2025-09-14T12:54:21Z) - Many Heads Are Better Than One: Improved Scientific Idea Generation by A LLM-Based Multi-Agent System [62.832818186789545]
Virtual Scientists (VirSci) は、科学研究に固有のチームワークを模倣するために設計されたマルチエージェントシステムである。
VirSciは研究のアイデアを共同で生成し、評価し、洗練するエージェントのチームを組織している。
このマルチエージェントアプローチは、新しい科学的アイデアを生み出す上で、最先端の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-10-12T07:16:22Z) - LLM and Simulation as Bilevel Optimizers: A New Paradigm to Advance Physical Scientific Discovery [141.39722070734737]
本稿では,大規模言語モデルの知識駆動型抽象推論能力をシミュレーションの計算力で強化することを提案する。
本稿では,2段階最適化フレームワークであるSGA(Scientific Generative Agent)を紹介する。
法発見と分子設計における枠組みの有効性を実証するための実験を行った。
論文 参考訳(メタデータ) (2024-05-16T03:04:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。