論文の概要: MLSMM: Machine Learning Security Maturity Model
- arxiv url: http://arxiv.org/abs/2306.16127v1
- Date: Wed, 28 Jun 2023 11:56:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-29 14:26:58.912860
- Title: MLSMM: Machine Learning Security Maturity Model
- Title(参考訳): MLSMM:機械学習セキュリティ成熟度モデル
- Authors: Felix Jedrzejewski, Davide Fucci, Oleksandr Adamov
- Abstract要約: 本稿では,ML開発ライフサイクルに沿ってセキュリティプラクティスを整理する,MLSMM(Machine Learning Security Maturity Model)を提案する。
我々は,MLSMMを産業と学界の緊密な連携の一歩として想定する。
- 参考スコア(独自算出の注目度): 24.17329129407419
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Assessing the maturity of security practices during the development of
Machine Learning (ML) based software components has not gotten as much
attention as traditional software development. In this Blue Sky idea paper, we
propose an initial Machine Learning Security Maturity Model (MLSMM) which
organizes security practices along the ML-development lifecycle and, for each,
establishes three levels of maturity. We envision MLSMM as a step towards
closer collaboration between industry and academia.
- Abstract(参考訳): 機械学習(ML)ベースのソフトウェアコンポーネントの開発におけるセキュリティプラクティスの成熟度を評価することは、従来のソフトウェア開発ほど注目されていない。
本稿では,ML開発ライフサイクルに沿ってセキュリティプラクティスを整理し,それぞれが3段階の成熟度を確立する機械学習セキュリティ成熟度モデル(MLSMM)を提案する。
我々は,MLSMMを産業と学界の緊密な連携の一歩として想定する。
関連論文リスト
- Position: A Call to Action for a Human-Centered AutoML Paradigm [83.78883610871867]
自動機械学習(AutoML)は、機械学習(ML)を自動かつ効率的に構成する基本的目的を中心に形成された。
AutoMLの完全な可能性を解き放つ鍵は、現在探索されていないAutoMLシステムとのユーザインタラクションの側面に対処することにある、と私たちは主張する。
論文 参考訳(メタデータ) (2024-06-05T15:05:24Z) - LLaMA Pro: Progressive LLaMA with Block Expansion [66.39213657252279]
本稿では,トランスフォーマーブロックを拡張したLarge Language Models (LLM) の事前学習手法を提案する。
我々は,新たなコーパスのみを用いて拡張ブロックをチューニングし,大惨な忘れをすることなく,モデル知識を効率的に,効果的に改善する。
本稿では,LLaMA2-7Bの多元的基礎モデルであるLLaMA Pro-8.3Bのコードと数学のコーパスについて実験する。
論文 参考訳(メタデータ) (2024-01-04T18:59:12Z) - Experiential Co-Learning of Software-Developing Agents [83.34027623428096]
大規模言語モデル(LLM)は、特にソフトウェア開発において、様々な領域に大きな変化をもたらした。
本稿では,新しいLLM学習フレームワークであるExperiential Co-Learningを紹介する。
実験では、このフレームワークにより、エージェントは、目に見えないソフトウェア開発タスクをより効果的に対処できることを示した。
論文 参考訳(メタデータ) (2023-12-28T13:50:42Z) - Empowering Autonomous Driving with Large Language Models: A Safety Perspective [82.90376711290808]
本稿では,Large Language Models (LLM) の自律運転システムへの統合について検討する。
LLMは行動計画におけるインテリジェントな意思決定者であり、文脈的安全学習のための安全検証シールドを備えている。
適応型LLM条件モデル予測制御(MPC)と状態機械を用いたLLM対応対話型行動計画スキームという,シミュレーション環境における2つの重要な研究について述べる。
論文 参考訳(メタデータ) (2023-11-28T03:13:09Z) - Ergo, SMIRK is Safe: A Safety Case for a Machine Learning Component in a
Pedestrian Automatic Emergency Brake System [5.571920596648914]
重要なアプリケーションにおける機械学習(ML)コンポーネントの統合は、ソフトウェア認証と検証に新たな課題をもたらす。
MLベースのシステムの安全性を支援するため、新しい安全基準と技術ガイドラインが開発中である。
MLをベースとした自動緊急制動デモ機SMIRKの安全保証に関する産学連携の結果を報告する。
論文 参考訳(メタデータ) (2022-04-16T21:28:50Z) - SoK: Machine Learning Governance [16.36671448193025]
このような利益とリスクのバランスをとるため、MLガバナンスの概念を開発します。
私たちは、MLシステムの障害の原因となるプリンシパルを保持するためにアイデンティティを使用します。
私たちは、モデルオーナーがシステムのライフサイクルを管理することができる技術の必要性を強調します。
論文 参考訳(メタデータ) (2021-09-20T17:56:22Z) - Guidance on the Assurance of Machine Learning in Autonomous Systems
(AMLAS) [16.579772998870233]
自律システム(AMLAS)における機械学習の保証手法について紹介する。
AMLASは、一連の安全ケースパターンと、MLコンポーネントの開発に安全保証を統合するプロセスから構成される。
論文 参考訳(メタデータ) (2021-02-02T15:41:57Z) - Technology Readiness Levels for Machine Learning Systems [107.56979560568232]
機械学習システムの開発とデプロイは、現代のツールで簡単に実行できますが、プロセスは一般的に急ぎ、エンドツーエンドです。
私たちは、機械学習の開発と展開のための実証済みのシステムエンジニアリングアプローチを開発しました。
当社の「機械学習技術準備レベル」フレームワークは、堅牢で信頼性が高く、責任あるシステムを確保するための原則的なプロセスを定義します。
論文 参考訳(メタデータ) (2021-01-11T15:54:48Z) - Towards a Robust and Trustworthy Machine Learning System Development [0.09236074230806578]
最新のML信頼性と技術に関する最近の調査をセキュリティエンジニアリングの視点から紹介します。
次に、ML実践者のための標準的かつ視覚化された方法で知識の体を表すメタモデルを記述することによって、調査の前後に研究を進めます。
本稿では,堅牢で信頼性の高いMLシステムの開発を進めるための今後の研究方向性を提案する。
論文 参考訳(メタデータ) (2021-01-08T14:43:58Z) - Technology Readiness Levels for AI & ML [79.22051549519989]
機械学習システムの開発は、現代的なツールで容易に実行できるが、プロセスは通常急いで、エンドツーエンドで実行される。
エンジニアリングシステムは、高品質で信頼性の高い結果の開発を効率化するために、明確に定義されたプロセスとテスト標準に従います。
我々は、機械学習の開発と展開のための実証されたシステムエンジニアリングアプローチを提案する。
論文 参考訳(メタデータ) (2020-06-21T17:14:34Z) - Adversarial Machine Learning -- Industry Perspectives [6.645585967550316]
28の組織へのインタビューから、業界実践者は機械学習(ML)システムに対する攻撃を守り、検出し、対応するための戦術的および戦略的なツールを持っていないことがわかった。
従来のソフトウェアセキュリティ開発の文脈で見た場合、私たちはインタビューの洞察を活用し、機械学習システムの確保における視点のギャップを列挙します。
論文 参考訳(メタデータ) (2020-02-04T02:28:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。