論文の概要: LLM for SoC Security: A Paradigm Shift
- arxiv url: http://arxiv.org/abs/2310.06046v1
- Date: Mon, 9 Oct 2023 18:02:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-12 02:27:31.928825
- Title: LLM for SoC Security: A Paradigm Shift
- Title(参考訳): LLM for SoC Security - パラダイムシフト
- Authors: Dipayan Saha, Shams Tarek, Katayoon Yahyaei, Sujan Kumar Saha, Jingbo
Zhou, Mark Tehranipoor, Farimah Farahmandi
- Abstract要約: 大規模言語モデル(LLM)は、自然言語理解、高度な推論、プログラム合成タスクにおいて顕著な成功を祝っている。
本稿では,既存研究の詳細な分析,実践事例の紹介,総合実験の紹介,促進ガイドラインの紹介を行う。
- 参考スコア(独自算出の注目度): 10.538841854672786
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As the ubiquity and complexity of system-on-chip (SoC) designs increase
across electronic devices, the task of incorporating security into an SoC
design flow poses significant challenges. Existing security solutions are
inadequate to provide effective verification of modern SoC designs due to their
limitations in scalability, comprehensiveness, and adaptability. On the other
hand, Large Language Models (LLMs) are celebrated for their remarkable success
in natural language understanding, advanced reasoning, and program synthesis
tasks. Recognizing an opportunity, our research delves into leveraging the
emergent capabilities of Generative Pre-trained Transformers (GPTs) to address
the existing gaps in SoC security, aiming for a more efficient, scalable, and
adaptable methodology. By integrating LLMs into the SoC security verification
paradigm, we open a new frontier of possibilities and challenges to ensure the
security of increasingly complex SoCs. This paper offers an in-depth analysis
of existing works, showcases practical case studies, demonstrates comprehensive
experiments, and provides useful promoting guidelines. We also present the
achievements, prospects, and challenges of employing LLM in different SoC
security verification tasks.
- Abstract(参考訳): system-on-chip (soc) 設計のユビキタス性と複雑さが電子機器全体にわたって増大するにつれ、soc設計フローにセキュリティを組み込む作業は大きな課題となる。
既存のセキュリティソリューションは、スケーラビリティ、包括性、適応性に制限があるため、現代のSoC設計を効果的に検証するには不十分である。
一方、Large Language Models(LLM)は、自然言語理解、高度な推論、プログラム合成タスクにおいて顕著な成功を収めている。
機会を認識して、私たちの研究は、より効率的でスケーラブルで適応可能な方法論を目指して、SoCセキュリティの既存のギャップに対処するために、ジェネレーティブプレトレーニングトランスフォーマー(GPT)の創発的能力を活用することに注力しています。
LLMをSoCのセキュリティ検証パラダイムに統合することで、より複雑なSoCのセキュリティを確保するために、可能性と課題の新しいフロンティアが開かれる。
本稿は,既存の作品の詳細な分析,実践事例の紹介,総合的な実験の紹介,有用なプロモーションガイドラインを提供する。
また,異なるsocセキュリティ検証タスクにおけるllm活用の成果,展望,課題について述べる。
関連論文リスト
- Evolutionary Large Language Models for Hardware Security: A Comparative Survey [0.4642370358223669]
本研究では,レジスタ転送レベル(RTL)設計におけるLLM(Large Language Models)統合の種について検討する。
LLMは、HW設計に固有のセキュリティ関連脆弱性を自動的に修正するために利用することができる。
論文 参考訳(メタデータ) (2024-04-25T14:42:12Z) - Generative AI for Secure Physical Layer Communications: A Survey [80.0638227807621]
Generative Artificial Intelligence(GAI)は、AIイノベーションの最前線に立ち、多様なコンテンツを生成するための急速な進歩と非並行的な能力を示す。
本稿では,通信ネットワークの物理層におけるセキュリティ向上におけるGAIの様々な応用について,広範な調査を行う。
私たちは、物理的レイヤセキュリティの課題に対処する上で、GAIの役割を掘り下げ、通信の機密性、認証、可用性、レジリエンス、整合性に重点を置いています。
論文 参考訳(メタデータ) (2024-02-21T06:22:41Z) - SALAD-Bench: A Hierarchical and Comprehensive Safety Benchmark for Large
Language Models [112.46733790998024]
SALAD-Benchは、大規模言語モデル(LLM)を評価するために特別に設計された安全ベンチマークである。
それは、その大規模な、豊富な多様性、三つのレベルにまたがる複雑な分類、多目的機能を通じて、従来のベンチマークを超越している。
論文 参考訳(メタデータ) (2024-02-07T17:33:54Z) - Data Poisoning for In-context Learning [49.77204165250528]
In-context Learning (ICL)は、新しいタスクに適応する革新的な能力として認識されている。
本論文は、ICLのデータ中毒に対する感受性の重大な問題について述べる。
ICLの学習メカニズムを活用するために考案された特殊攻撃フレームワークであるICLPoisonを紹介する。
論文 参考訳(メタデータ) (2024-02-03T14:20:20Z) - Building Guardrails for Large Language Models [20.71365278201298]
LLMの入力や出力をフィルタリングするガードレールは、コアセーフガード技術として登場した。
このポジションペーパーでは、現在のオープンソースソリューション(Llama Guard, Nvidia NeMo, Guardrails AI)を詳しく調べ、より完全なソリューションを構築するための課題と道筋について論じる。
論文 参考訳(メタデータ) (2024-02-02T16:35:00Z) - The Art of Defending: A Systematic Evaluation and Analysis of LLM
Defense Strategies on Safety and Over-Defensiveness [56.174255970895466]
大規模言語モデル(LLM)は、自然言語処理アプリケーションにおいて、ますます重要な役割を担っている。
本稿では,SODE(Safety and Over-Defensiveness Evaluation)ベンチマークを提案する。
論文 参考訳(メタデータ) (2023-12-30T17:37:06Z) - Cybersecurity in Motion: A Survey of Challenges and Requirements for Future Test Facilities of CAVs [11.853500347907826]
協力的インテリジェントトランスポーテーションシステム(C-ITS)はこの進化の最前線にある。
本稿では,C-ITSのサイバーセキュリティの研究,試験,評価を促進するために設計された,CSCE(Cybersecurity Centre of Excellence)を提案する。
論文 参考訳(メタデータ) (2023-12-22T13:42:53Z) - Security and Reliability Evaluation of Countermeasures implemented using High-Level Synthesis [0.0]
サイドチャネル分析(SCA)とフォールトインジェクション(FI)攻撃は強力なハードウェア攻撃である。
HLSツールにセキュリティと信頼性による最適化が欠如しているため、HLSベースの設計では、アルゴリズムの特性と対策が損なわれていないことを検証する必要がある。
論文 参考訳(メタデータ) (2023-12-11T10:13:47Z) - Testing learning-enabled cyber-physical systems with Large-Language
Models: A Formal Approach [33.54162936360566]
機械学習(ML)をサイバー物理システム(CPS)に統合することは大きな利益をもたらす。
既存の検証と検証技術は、しばしばこれらの新しいパラダイムには不十分である。
本稿では, 基礎確率テストからより厳密なアプローチへ移行し, 正式な保証を実現するためのロードマップを提案する。
論文 参考訳(メタデータ) (2023-11-13T14:56:14Z) - Evaluating Model-free Reinforcement Learning toward Safety-critical
Tasks [70.76757529955577]
本稿では、国家安全RLの観点から、この領域における先行研究を再考する。
安全最適化と安全予測を組み合わせた共同手法であるUnrolling Safety Layer (USL)を提案する。
この領域のさらなる研究を容易にするため、我々は関連するアルゴリズムを統一パイプラインで再現し、SafeRL-Kitに組み込む。
論文 参考訳(メタデータ) (2022-12-12T06:30:17Z) - Recursively Feasible Probabilistic Safe Online Learning with Control
Barrier Functions [63.18590014127461]
本稿では,CBFをベースとした安全クリティカルコントローラのモデル不確実性を考慮した再構成を提案する。
本研究では,ロバストな安全クリティカルコントローラの実現可能性について検討する。
次に、これらの条件を使って、イベントトリガーによるオンラインデータ収集戦略を考案します。
論文 参考訳(メタデータ) (2022-08-23T05:02:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。