論文の概要: Integrating Generative AI into Cybersecurity Education: A Study of OCR and Multimodal LLM-assisted Instruction
- arxiv url: http://arxiv.org/abs/2509.02998v1
- Date: Wed, 03 Sep 2025 04:16:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 21:40:46.410375
- Title: Integrating Generative AI into Cybersecurity Education: A Study of OCR and Multimodal LLM-assisted Instruction
- Title(参考訳): ジェネレーティブAIをサイバーセキュリティ教育に統合する:OCRとマルチモーダルLLM支援教育に関する研究
- Authors: Karan Patel, Yu-Zheng Lin, Gaurangi Raul, Bono Po-Jen Shih, Matthew W. Redondo, Banafsheh Saber Latibari, Jesus Pacheco, Soheil Salehi, Pratik Satam,
- Abstract要約: 本稿は、仮想サイバーセキュリティラボプラットフォームと統合されたLLM支援命令について述べる。
ロボット工学、自動化、AI、セキュリティに重点が置かれているため、リスキルとアップスキルが不可欠である。
本稿では,従来の経験的学習プラットフォームに統合された生成型AI指導アシスタントを提案する。
- 参考スコア(独自算出の注目度): 0.5394948236100675
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This full paper describes an LLM-assisted instruction integrated with a virtual cybersecurity lab platform. The digital transformation of Fourth Industrial Revolution (4IR) systems is reshaping workforce needs, widening skill gaps, especially among older workers. With rising emphasis on robotics, automation, AI, and security, re-skilling and up-skilling are essential. Generative AI can help build this workforce by acting as an instructional assistant to support skill acquisition during experiential learning. We present a generative AI instructional assistant integrated into a prior experiential learning platform. The assistant employs a zero-shot OCR-LLM pipeline within the legacy Cybersecurity Labs-as-a-Service (CLaaS) platform (2015). Text is extracted from slide images using Tesseract OCR, then simplified instructions are generated via a general-purpose LLM, enabling real-time instructional support with minimal infrastructure. The system was evaluated in a live university course where student feedback (n=42) averaged 7.83/10, indicating strong perceived usefulness. A comparative study with multimodal LLMs that directly interpret slide images showed higher performance on visually dense slides, but the OCR-LLM pipeline provided comparable pedagogical value on text-centric slides with much lower computational overhead and cost. This work demonstrates that a lightweight, easily integrable pipeline can effectively extend legacy platforms with modern generative AI, offering scalable enhancements for student comprehension in technical education.
- Abstract(参考訳): 本稿は、仮想サイバーセキュリティラボプラットフォームと統合されたLLM支援命令について述べる。
第4次産業革命(4IR)システムのデジタルトランスフォーメーションは、特に高齢労働者のスキルギャップを広げ、労働需要を変革している。
ロボット工学、自動化、AI、セキュリティに重点が置かれているため、リスキルとアップスキルが不可欠である。
ジェネレーティブAIは、経験的学習におけるスキル獲得を支援するための指導的アシスタントとして機能することで、この労働力を構築するのに役立つ。
本稿では,従来の経験的学習プラットフォームに統合された生成型AI指導アシスタントを提案する。
アシスタントは、レガシーなCybersecurity Labs-as-a-Service(CLaaS)プラットフォーム(2015年)でゼロショットのOCR-LLMパイプラインを使用している。
Tesseract OCR を用いてスライド画像からテキストを抽出し,汎用 LLM を用いて簡易な命令を生成する。
学生のフィードバック(n=42)が平均7.83/10であり,有効性が強く評価された。
スライド画像を直接解釈するマルチモーダルLCMとの比較研究は、視覚的に密度の高いスライドでは高い性能を示したが、OCR-LLMパイプラインは、計算オーバーヘッドとコストがはるかに低いテキスト中心のスライドでは、同等の教育的価値を提供した。
この研究は、軽量で容易に統合可能なパイプラインが、レガシープラットフォームを現代的な生成AIで効果的に拡張できることを示し、技術教育における学生の理解にスケーラブルな拡張を提供する。
関連論文リスト
- UniVLA: Learning to Act Anywhere with Task-centric Latent Actions [32.83715417294052]
UniVLAは、クロス・エボディメント・ビジョン・ランゲージ・アクション(VLA)ポリシーを学ぶための新しいフレームワークである。
我々は、潜在アクションモデルを用いたビデオからタスク中心のアクション表現を導出する。
複数の操作やナビゲーションのベンチマーク、実際のロボットの配置など、最先端の結果が得られます。
論文 参考訳(メタデータ) (2025-05-09T15:11:13Z) - Inclusive STEAM Education: A Framework for Teaching Cod-2 ing and Robotics to Students with Visually Impairment Using 3 Advanced Computer Vision [0.0]
本稿では,事前構築したロボットと,迷路解決技術などのアルゴリズムを,アクセス可能な学習環境内で活用する枠組みを提案する。
提案システムでは、コントラスト言語画像事前学習(CLIP)を用いて、グローバルカメラキャプチャーされた迷路レイアウトを処理する。
学生は、CLIPを通じて洗練された音声コマンドを発行する一方、ロボット搭載ステレオカメラは、同時SLAMで処理されるリアルタイムデータを提供する。
論文 参考訳(メタデータ) (2025-03-06T17:15:12Z) - LLaRA: Supercharging Robot Learning Data for Vision-Language Policy [56.505551117094534]
我々はLLaRA: Large Language and Robotics Assistantを紹介した。
まず、既存の行動クローニングデータセットからロボットのための会話スタイルの指導データを生成する自動パイプラインを提案する。
このようなデータセットを限定的に微調整したVLMは、ロボット制御において有意義な行動決定を導出できることを示す。
論文 参考訳(メタデータ) (2024-06-28T17:59:12Z) - ROS-LLM: A ROS framework for embodied AI with task feedback and structured reasoning [74.58666091522198]
非専門家による直感的なロボットプログラミングのためのフレームワークを提案する。
ロボットオペレーティングシステム(ROS)からの自然言語のプロンプトと文脈情報を活用する
我々のシステムは,大規模言語モデル (LLM) を統合し,非専門家がチャットインタフェースを通じてシステムにタスク要求を記述できるようにする。
論文 参考訳(メタデータ) (2024-06-28T08:28:38Z) - ST-LLM: Large Language Models Are Effective Temporal Learners [58.79456373423189]
大規模言語モデル(LLM)は、テキストの理解と生成において印象的な能力を示した。
ビデオベースの対話システムでビデオを効果的にエンコードし、理解する方法は、まだ解決されていない。
LLM内部の時空間シーケンスをモデル化したビデオLLMベースラインST-LLMを提案する。
論文 参考訳(メタデータ) (2024-03-30T10:11:26Z) - InCoRo: In-Context Learning for Robotics Control with Feedback Loops [4.702566749969133]
InCoRoは、LLMコントローラ、シーン理解ユニット、ロボットからなる古典的なロボットフィードバックループを使用するシステムである。
システムの一般化能力を強調し,InCoRoが成功率において先行技術を上回ることを示す。
この研究は、動的環境に適応する信頼性があり、効率的でインテリジェントな自律システムを構築するための道を開いた。
論文 参考訳(メタデータ) (2024-02-07T19:01:11Z) - Unleashing the potential of prompt engineering for large language models [1.6006550105523192]
大規模言語モデル(LLM)の能力を解き放つ上で,迅速なエンジニアリングが果たす重要な役割を概観する
自己整合性、思考の連鎖、そして生成された知識などの技術を含む、素早い工学の基礎的方法論と先進的な方法論の両方を検査する。
AIセキュリティの側面、特に迅速なエンジニアリングの脆弱性を悪用する敵攻撃について論じる。
論文 参考訳(メタデータ) (2023-10-23T09:15:18Z) - Pre-Training for Robots: Offline RL Enables Learning New Tasks from a
Handful of Trials [97.95400776235736]
新しいタスクを効果的に学習しようとするオフラインRLに基づくフレームワークを提案する。
既存のロボットデータセットの事前トレーニングと、新しいタスクの迅速な微調整と、最大10のデモを組み合わせたものだ。
我々の知る限り、PTRは本物のWidowXロボットで新しいドメインで新しいタスクを学習する最初のRL手法である。
論文 参考訳(メタデータ) (2022-10-11T06:30:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。