論文の概要: Generative AI Misuse Potential in Cyber Security Education: A Case Study of a UK Degree Program
- arxiv url: http://arxiv.org/abs/2501.12883v1
- Date: Wed, 22 Jan 2025 13:44:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-23 16:53:37.075560
- Title: Generative AI Misuse Potential in Cyber Security Education: A Case Study of a UK Degree Program
- Title(参考訳): サイバーセキュリティ教育におけるジェネレーティブAIの誤用可能性--英国のデグレープログラムを事例として
- Authors: Carlton Shepherd,
- Abstract要約: 本稿では,英国ラッセルグループ大学におけるマスターレベルのサイバーセキュリティ学位プログラムのLLM誤用に対する感受性について検討する。
我々は、特に独立したプロジェクトベースおよびレポートベースアセスメントにおいて、誤用に対する高い暴露を識別する。
これらの課題に対処するために、LLM耐性評価、検出ツールの導入、倫理的学習環境の育成の重要性について論じる。
- 参考スコア(独自算出の注目度): 1.9217872171227137
- License:
- Abstract: Recent advances in generative artificial intelligence (AI), such as ChatGPT, Google Gemini, and other large language models (LLMs), pose significant challenges to upholding academic integrity in higher education. This paper investigates the susceptibility of a Master's-level cyber security degree program at a UK Russell Group university, accredited by a leading national body, to LLM misuse. Through the application and extension of a quantitative assessment framework, we identify a high exposure to misuse, particularly in independent project- and report-based assessments. Contributing factors, including block teaching and a predominantly international cohort, are highlighted as potential amplifiers of these vulnerabilities. To address these challenges, we discuss the adoption of LLM-resistant assessments, detection tools, and the importance of fostering an ethical learning environment. These approaches aim to uphold academic standards while preparing students for the complexities of real-world cyber security.
- Abstract(参考訳): ChatGPT、Google Gemini、その他の大規模言語モデル(LLMs)などの生成人工知能(AI)の最近の進歩は、高等教育における学術的完全性を維持する上で大きな課題となっている。
本稿では,英国ラッセルグループ大学における修士レベルのサイバーセキュリティ学位プログラムのLLM誤用に対する感受性について検討する。
定量的アセスメントフレームワークの適用と拡張を通じて、特に独立したプロジェクトおよびレポートに基づくアセスメントにおいて、誤用に対する高い暴露を識別する。
ブロック教育や、主に国際的なコホートを含む貢献要因は、これらの脆弱性の潜在的な増幅として強調される。
これらの課題に対処するために、LLM耐性評価、検出ツールの導入、倫理的学習環境の育成の重要性について論じる。
これらのアプローチは、学生が現実世界のサイバーセキュリティの複雑さに対処する準備をしながら、学術的基準を守ることを目的としている。
関連論文リスト
- LLM Cyber Evaluations Don't Capture Real-World Risk [0.0]
大規模言語モデル(LLMs)は、サイバーセキュリティアプリケーションにおける進歩を誇示している。
これらの能力によって引き起こされるリスクを評価するための現在の取り組みは、現実のインパクトを理解するという目標と不一致である、と我々は主張する。
論文 参考訳(メタデータ) (2025-01-31T05:33:48Z) - Open Problems in Machine Unlearning for AI Safety [61.43515658834902]
特定の種類の知識を選択的に忘れたり、抑圧したりするマシンアンラーニングは、プライバシとデータ削除タスクの約束を示している。
本稿では,アンラーニングがAI安全性の包括的ソリューションとして機能することを防止するための重要な制約を特定する。
論文 参考訳(メタデータ) (2025-01-09T03:59:10Z) - Ontology-Aware RAG for Improved Question-Answering in Cybersecurity Education [13.838970688067725]
AIによる質問応答(QA)システムは、サイバーセキュリティの問題解決における不確実性を積極的に管理することができる。
大規模言語モデル(LLM)は、高度な言語理解とユーザエンゲージメントを提供するAI駆動のQAシステムで注目を集めている。
我々は,サイバーセキュリティ教育における信頼性および安全性の高いQAシステムを開発するための,オントロジー対応検索強化世代(RAG)アプローチであるCyberRAGを提案する。
論文 参考訳(メタデータ) (2024-12-10T21:52:35Z) - Global Challenge for Safe and Secure LLMs Track 1 [57.08717321907755]
LLM(Global Challenge for Safe and Secure Large Language Models)は、AI Singapore(AISG)とCyberSG R&D Programme Office(CRPO)が主催する先駆的イニシアチブである。
本稿では,AI Singapore(AISG)とCyberSG R&D Programme Office(CRPO)が組織した先駆的イニシアチブであるLLM(Global Challenge for Safe and Secure Large Language Models)を紹介する。
論文 参考訳(メタデータ) (2024-11-21T08:20:31Z) - Exploring the Cybersecurity-Resilience Gap: An Analysis of Student Attitudes and Behaviors in Higher Education [0.0]
本研究では,行動理論を理論的枠組みとして用い,そのギャップを解消する。
情報セキュリティアンケートの人的側面を修正し, 大学生と大学院生の有効回答266件を収集した。
パスワード管理、電子メールの使用、ソーシャルメディアの実践、モバイルデバイスのセキュリティなど、サイバーセキュリティの意識と行動に関する重要な側面を評価した。
論文 参考訳(メタデータ) (2024-11-05T16:09:37Z) - EARBench: Towards Evaluating Physical Risk Awareness for Task Planning of Foundation Model-based Embodied AI Agents [53.717918131568936]
EAI(Embodied AI)は、高度なAIモデルを現実世界のインタラクションのための物理的なエンティティに統合する。
高レベルのタスク計画のためのEAIエージェントの"脳"としてのファンデーションモデルは、有望な結果を示している。
しかし、これらのエージェントの物理的環境への展開は、重大な安全性上の課題を呈している。
本研究では,EAIシナリオにおける身体的リスクの自動評価のための新しいフレームワークEARBenchを紹介する。
論文 参考訳(メタデータ) (2024-08-08T13:19:37Z) - Could ChatGPT get an Engineering Degree? Evaluating Higher Education Vulnerability to AI Assistants [176.39275404745098]
我々は,2つのAIアシスタントであるGPT-3.5とGPT-4が適切な回答を得られるかどうかを評価する。
GPT-4は65.8%の質問を正解し、85.1%の質問に対して少なくとも1つの手順で正しい答えを出すことができる。
この結果から,AIの進歩を踏まえて,高等教育におけるプログラムレベルの評価設計の見直しが求められた。
論文 参考訳(メタデータ) (2024-08-07T12:11:49Z) - The WMDP Benchmark: Measuring and Reducing Malicious Use With Unlearning [87.1610740406279]
ホワイトハウス人工知能に関する大統領令は、生物、サイバー、化学兵器の開発において悪意あるアクターに力を与える大きな言語モデル(LLM)のリスクを強調している。
現在の評価は非公開であり、リスク軽減のさらなる研究を妨げている。
Weapons of Mass Destruction Proxyベンチマークを公開しています。
論文 参考訳(メタデータ) (2024-03-05T18:59:35Z) - Prioritizing Safeguarding Over Autonomy: Risks of LLM Agents for Science [65.77763092833348]
大規模言語モデル(LLM)を利用したインテリジェントエージェントは、自律的な実験を行い、様々な分野にわたる科学的発見を促進する上で、大きな可能性を証明している。
彼らの能力は有望だが、これらのエージェントは安全性を慎重に考慮する必要がある新たな脆弱性も導入している。
本稿では,科学領域におけるLSMをベースとしたエージェントの脆弱性の徹底的な調査を行い,その誤用に伴う潜在的なリスクに光を当て,安全性対策の必要性を強調した。
論文 参考訳(メタデータ) (2024-02-06T18:54:07Z) - Large Language Models in Cybersecurity: State-of-the-Art [4.990712773805833]
大規模言語モデル(LLM)の台頭は、私たちの知性の理解に革命をもたらした。
本研究は, サイバーセキュリティの領域におけるLLMの防衛的, 敵的応用の徹底的な評価を, 既存の文献を考察した。
論文 参考訳(メタデータ) (2024-01-30T16:55:25Z) - Building Resilient SMEs: Harnessing Large Language Models for Cyber
Security in Australia [0.0]
オーストラリアの中小企業では、サイバー脅威に対する脆弱性が増加している。
人工知能(AI)、機械学習(ML)、大規模言語モデル(LLM)は、オーストラリアの中小企業のサイバーセキュリティポリシーを強化する可能性がある。
本研究は、オーストラリアの中小企業におけるサイバーセキュリティ政策の強化におけるLLMの役割について、包括的理解を提供する。
論文 参考訳(メタデータ) (2023-06-05T06:01:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。