論文の概要: Paths Not Taken: A Secure Computing Tutorial
- arxiv url: http://arxiv.org/abs/2504.16088v1
- Date: Wed, 12 Mar 2025 18:17:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-22 23:32:14.370676
- Title: Paths Not Taken: A Secure Computing Tutorial
- Title(参考訳): パスを取らない:セキュアなコンピューティングチュートリアル
- Authors: William Earl Boebert,
- Abstract要約: このチュートリアルでは、システムエンジニアリングの実践を、その運用環境における統合アーティファクトの非公式なモデルで提示することで、システムエンジニアリングの実践を取り入れている。
このチュートリアルは、教師がカリキュラムに重要な過去の作業を含めることを奨励し、その成果をセキュアコンピューティングの探究に追加するために自己教育を行っている学生を育成することが望まれる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper is a tutorial on the proven but currently under-appreciated security mechanisms associated with "tagged" or "descriptor" architectures. The tutorial shows how the principles behind such architectures can be applied to mitigate or eliminate vulnerabilities. The tutorial incorporates systems engineering practices by presenting the mechanisms in an informal model of an integrated artifact in its operational environment. The artifact is a special-purpose hardware/software system called a "Guard" which robustly hosts defensive software. It is hoped that this tutorial may encourage teachers to include significant past work in their curricula and students who are self-teaching to add that work to their exploration of secure computing.
- Abstract(参考訳): 本稿では、"タグ付き"アーキテクチャや"ディスクリプタ"アーキテクチャに関連するセキュリティメカニズムの実証と未承認に関するチュートリアルである。
チュートリアルでは、このようなアーキテクチャの背後にある原則が、脆弱性の緩和や排除にどのように適用できるかを示している。
このチュートリアルでは、システムエンジニアリングの実践を、その運用環境における統合アーティファクトの非公式なモデルで提示することで、システムエンジニアリングの実践を取り入れている。
このアーティファクトは、防衛ソフトウェアをしっかりとホストする「ガード」と呼ばれる専用ハードウェア/ソフトウェアシステムである。
このチュートリアルは、教師がカリキュラムに重要な過去の作業を含めることを奨励し、その成果をセキュアコンピューティングの探究に追加するために自己教育を行っている学生を育成することが望まれる。
関連論文リスト
- A Systematic Literature Review on Automated Exploit and Security Test Generation [14.528323751981794]
文献からのエクスプロイト生成テクニックのリストを特定し、それらを自動エクスプロイト生成、セキュリティテスト、ファジング、その他のテクニックの4つのカテゴリに分類する。
ほとんどのテクニックは、C/C++プログラムのメモリベースの脆弱性とPHPおよびJavaアプリケーションのWebベースのインジェクション脆弱性に焦点を当てている。
論文 参考訳(メタデータ) (2025-02-07T14:19:56Z) - When Authentication Is Not Enough: On the Security of Behavioral-Based Driver Authentication Systems [53.2306792009435]
我々はランダムフォレストとリカレントニューラルネットワークアーキテクチャに基づく2つの軽量ドライバ認証システムを開発した。
我々は,SMARTCANとGANCANという2つの新しいエスケープアタックを開発することで,これらのシステムに対する攻撃を最初に提案する。
コントリビューションを通じて、これらのシステムを安全に採用する実践者を支援し、車の盗難を軽減し、ドライバーのセキュリティを高める。
論文 参考訳(メタデータ) (2023-06-09T14:33:26Z) - Evil from Within: Machine Learning Backdoors through Hardware Trojans [51.81518799463544]
バックドアは、自動運転車のようなセキュリティクリティカルなシステムの整合性を損なう可能性があるため、機械学習に深刻な脅威をもたらす。
私たちは、機械学習のための一般的なハードウェアアクセラレーターに完全に存在するバックドアアタックを導入します。
我々は,Xilinx Vitis AI DPUにハードウェアトロイの木馬を埋め込むことにより,攻撃の実現可能性を示す。
論文 参考訳(メタデータ) (2023-04-17T16:24:48Z) - Constrained Reinforcement Learning for Robotics via Scenario-Based
Programming [64.07167316957533]
DRLをベースとしたエージェントの性能を最適化し,その動作を保証することが重要である。
本稿では,ドメイン知識を制約付きDRLトレーニングループに組み込む新しい手法を提案する。
我々の実験は、専門家の知識を活用するために我々のアプローチを用いることで、エージェントの安全性と性能が劇的に向上することを示した。
論文 参考訳(メタデータ) (2022-06-20T07:19:38Z) - Dataset Security for Machine Learning: Data Poisoning, Backdoor Attacks,
and Defenses [150.64470864162556]
この作業は体系的に分類され、幅広いデータセット脆弱性とエクスプロイトを議論する。
様々な毒とバックドアの脅威モデルとそれらの関係を記述することに加えて,それらの統一分類法を展開する。
論文 参考訳(メタデータ) (2020-12-18T22:38:47Z) - Dos and Don'ts of Machine Learning in Computer Security [74.1816306998445]
大きな可能性にもかかわらず、セキュリティにおける機械学習は、パフォーマンスを損なう微妙な落とし穴を引き起こす傾向がある。
我々は,学習ベースのセキュリティシステムの設計,実装,評価において共通の落とし穴を特定する。
我々は,落とし穴の回避や軽減を支援するために,研究者を支援するための実用的な勧告を提案する。
論文 参考訳(メタデータ) (2020-10-19T13:09:31Z) - Blackbox Trojanising of Deep Learning Models : Using non-intrusive
network structure and binary alterations [0.0]
本研究は,任意の深層学習画像分類モデルに対して,単純なネットワーク構造を改良したブラックボックス・トロヤージング手法を提案する。
これらのモデルに十分な安全保護を提供することの重要性を強調し、AIイノベーションと採用の意図された利益を保護できることを強調している。
論文 参考訳(メタデータ) (2020-08-02T06:33:47Z) - Security and Machine Learning in the Real World [33.40597438876848]
私たちは、大規模にデプロイされた機械学習ソフトウェア製品のセキュリティを評価し、システムのセキュリティビューを含む会話を広げるために、私たちの経験に基づいています。
本稿では,機械学習モジュールをデプロイする実践者がシステムを保護するために使用できる,短期的な緩和提案のリストを提案する。
論文 参考訳(メタデータ) (2020-07-13T16:57:12Z) - Green Lighting ML: Confidentiality, Integrity, and Availability of
Machine Learning Systems in Deployment [4.2317391919680425]
プロダクション機械学習では、一般的にモデルを構築している人からモデルをデプロイしている人への手引きがある。
この手引きで、モデルデプロイメントを担当するエンジニアは、モデルの詳細を秘密にしないことが多い。
この問題を緩和するためには、モデルのプライバシとセキュリティを検証する自動化システムを開発する必要がある。
論文 参考訳(メタデータ) (2020-07-09T10:38:59Z) - A Privacy-Preserving Distributed Architecture for
Deep-Learning-as-a-Service [68.84245063902908]
本稿では,ディープラーニング・アズ・ア・サービスのための分散アーキテクチャを提案する。
クラウドベースのマシンとディープラーニングサービスを提供しながら、ユーザの機密データを保存できる。
論文 参考訳(メタデータ) (2020-03-30T15:12:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。