論文の概要: Reinforcing Cybersecurity Hands-on Training With Adaptive Learning
- arxiv url: http://arxiv.org/abs/2201.01574v1
- Date: Wed, 5 Jan 2022 12:35:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-02 05:42:50.713999
- Title: Reinforcing Cybersecurity Hands-on Training With Adaptive Learning
- Title(参考訳): アダプティブ・ラーニングによるサイバーセキュリティトレーニング強化
- Authors: Pavel Seda, Jan Vykopal, Valdemar \v{S}v\'abensk\'y, Pavel \v{C}eleda
- Abstract要約: 本論文は,セキュリティトレーニングにおける適応学習に関する最初の研究の1つである。
本研究は,12回の研修セッションにおける95人の学生のパフォーマンスを分析し,現在の研修実践の限界を理解することを目的とする。
そこで,本研究では,学生の習熟度を考慮した適応学習のための新しいチューターモデルを提案する。
- 参考スコア(独自算出の注目度): 0.5735035463793008
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents how learning experience influences students' capability
to learn and their motivation for learning. Although each student is different,
standard instruction methods do not adapt to individuals. Adaptive learning
reverses this practice and attempts to improve the student experience. While
adaptive learning is well-established in programming, it is rarely used in
cybersecurity education. This paper is one of the first works investigating
adaptive learning in security training. First, we analyze the performance of 95
students in 12 training sessions to understand the limitations of the current
training practice. Less than half of the students completed the training
without displaying a solution, and only in two sessions, all students completed
all phases. Then, we simulate how students would proceed in one of the past
training sessions if it would offer more paths of various difficulty. Based on
this simulation, we propose a novel tutor model for adaptive training, which
considers students' proficiency before and during an ongoing training session.
The proficiency is assessed using a pre-training questionnaire and various
in-training metrics. Finally, we conduct a study with 24 students and new
training using the proposed tutor model and adaptive training format. The
results show that the adaptive training does not overwhelm students as the
original static training. Adaptive training enables students to enter several
alternative training phases with lower difficulty than the original training.
The proposed format is not restricted to a particular training. Therefore, it
can be applied to practicing any security topic or even in related fields, such
as networking or operating systems. Our study indicates that adaptive learning
is a promising approach for improving the student experience in security
education. We also highlight implications for educational practice.
- Abstract(参考訳): 本稿では,学習経験が学習能力と学習動機に与える影響について述べる。
各生徒は異なるが、標準的な指導方法は個人に適応しない。
適応学習はこの実践を逆転させ、生徒の体験を改善しようとする。
適応学習はプログラミングにおいて確立されているが、サイバーセキュリティ教育ではほとんど使われない。
本稿では,セキュリティトレーニングにおける適応学習に関する最初の研究の1つである。
まず,12の研修セッションにおける95名の学生のパフォーマンスを分析し,現在の実習実践の限界を理解する。
半数未満の生徒が解を示さずにトレーニングを完了し、2つのセッションで全生徒がすべてのフェーズを完了した。
そして,過去のトレーニングセッションの1つにおいて,様々な難易度の経路を提供する学生がどのように進行するかをシミュレートした。
本研究では,このシミュレーションに基づいて,学生の習熟度を考慮した適応訓練のための新しい指導モデルを提案する。
習熟度は、予習アンケートおよび各種予習指標を用いて評価する。
最後に,24名の学生を対象に,提案する指導者モデルと適応型訓練形式を用いて新しい学習を行った。
その結果,適応学習は学生を本来の静的トレーニングとして圧倒しないことがわかった。
アダプティブトレーニングにより、学生は元のトレーニングよりも難易度が低いいくつかの代替トレーニングフェーズに入ることができる。
提案されたフォーマットは、特定のトレーニングに限定されない。
したがって、ネットワークやオペレーティングシステムなど、あらゆるセキュリティトピックや関連する分野の実践にも適用することができる。
本研究は,適応学習は,セキュリティ教育における学生体験を改善するための有望なアプローチであることを示す。
また,教育実践の意義についても強調する。
関連論文リスト
- YODA: Teacher-Student Progressive Learning for Language Models [82.0172215948963]
本稿では,教師が指導するプログレッシブ・ラーニング・フレームワークであるYodaを紹介する。
モデルファインチューニングの有効性を向上させるために,教師の教育過程をエミュレートする。
実験の結果, YODAのデータによるLLaMA2のトレーニングにより, SFTは大幅に向上した。
論文 参考訳(メタデータ) (2024-01-28T14:32:15Z) - Smart Environment for Adaptive Learning of Cybersecurity Skills [0.5735035463793008]
我々は、サイバーセキュリティスキルを適応的にトレーニングするための、ユニークで斬新なスマート環境を設計した。
環境は様々な学生データを収集し、トレーニングを通じて適切な学習経路を割り当てる。
各種能力を有する114人の生徒が参加する2種類の適応学習を用いて,学習環境の評価を行った。
論文 参考訳(メタデータ) (2023-07-11T14:20:29Z) - EfficientTrain: Exploring Generalized Curriculum Learning for Training
Visual Backbones [80.662250618795]
本稿では視覚バックボーン(例えば視覚変換器)の効率的なトレーニングのための新しいカリキュラム学習手法を提案する。
オフザシェルフ方式として、様々な人気モデルのウォールタイムトレーニングコストを、精度を犠牲にすることなく、ImageNet-1K/22Kで1.5倍に削減する。
論文 参考訳(メタデータ) (2022-11-17T17:38:55Z) - Effective Vision Transformer Training: A Data-Centric Perspective [24.02488085447691]
視覚変換器(ViT)は畳み込みニューラルネットワーク(CNN)と比較して有望な性能を示した
本稿では,DDP(Dynamic Data Proportion)やKAR(Knowledge Assimilation Rate)など,いくつかの指標を定義する。
トレーニングサンプルの難易度を動的に測定し,異なるトレーニング段階におけるモデルに対する効果的なサンプルを生成するための,新しいデータ中心型ViTトレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-09-29T17:59:46Z) - Friendly Training: Neural Networks Can Adapt Data To Make Learning
Easier [23.886422706697882]
フレンドリートレーニング(Friendly Training)と呼ばれる新しいトレーニング手順を提案する。
フレンドリートレーニングは、情報サブ選択とランダム選択に関して改善をもたらすことを示す。
その結果,入力データへの適応は学習を安定させ,ネットワークのスキル一般化を改善するための有効な方法であることが示唆された。
論文 参考訳(メタデータ) (2021-06-21T10:50:34Z) - Adversarial Training is Not Ready for Robot Learning [55.493354071227174]
対人訓練は,ノルム有界摂動に耐性のあるディープラーニングモデルを訓練する有効な方法である。
敵訓練により得られたニューラルコントローラが3種類の欠陥を受けることを理論的および実験的に示す。
この結果から, ロボット学習にはまだ対応できていないことが示唆された。
論文 参考訳(メタデータ) (2021-03-15T07:51:31Z) - Interaction-limited Inverse Reinforcement Learning [50.201765937436654]
本稿では,教師の視点をカバーしたカリキュラム逆強化学習(CIRL)と,学習者の視点に着目した自己適用逆強化学習(SPIRL)の2つの訓練戦略を提案する。
シミュレーション実験と実ロボットを用いた実験により,CIRLの無作為教師やSPIRLのバッチ学習者よりも高速な学習が可能であることを示す。
論文 参考訳(メタデータ) (2020-07-01T12:31:52Z) - Never Stop Learning: The Effectiveness of Fine-Tuning in Robotic
Reinforcement Learning [109.77163932886413]
本稿では,ロボットによるロボット操作ポリシーを,政治以外の強化学習を通じて微調整することで,新たなバリエーションに適応する方法を示す。
この適応は、タスクをゼロから学習するために必要なデータの0.2%未満を使用する。
事前訓練されたポリシーを適用するという私たちのアプローチは、微調整の過程で大きなパフォーマンス向上につながります。
論文 参考訳(メタデータ) (2020-04-21T17:57:04Z) - Side-Tuning: A Baseline for Network Adaptation via Additive Side
Networks [95.51368472949308]
適応は、トレーニングデータが少ない場合や、ネットワークのプリエンプションをエンコードしたい場合などに有効である。
本稿では,サイドチューニングという簡単な方法を提案する。
論文 参考訳(メタデータ) (2019-12-31T18:52:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。