論文の概要: Enabling Cross-Layer Reliability and Functional Safety Assessment
Through ML-Based Compact Models
- arxiv url: http://arxiv.org/abs/2104.10941v1
- Date: Thu, 22 Apr 2021 09:13:57 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-23 13:42:59.738961
- Title: Enabling Cross-Layer Reliability and Functional Safety Assessment
Through ML-Based Compact Models
- Title(参考訳): MLを用いたコンパクトモデルによるクロス層信頼性と機能安全評価
- Authors: Dan Alexandrescu, Aneesh Balakrishnan, Thomas Lange and Maximilien
Glorieux
- Abstract要約: 本稿では,1つのコンパクトモデルにサブシステム要素の多数の個別モデルを統合するための,機械学習に基づくアプローチを提案する。
コンパクトモデルは一貫性、正確性、機密性を提供し、技術、ip、コンポーネント、サブシステムまたはシステムプロバイダが高品質の信頼性と機能安全のコンパクトモデルを提供することができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Typical design flows are hierarchical and rely on assembling many individual
technology elements from standard cells to complete boards. Providers use
compact models to provide simplified views of their products to their users.
Designers group simpler elements in more complex structures and have to manage
the corresponding propagation of reliability and functional safety information
through the hierarchy of the system, accompanied by the obvious problems of IP
confidentiality, possibility of reverse engineering and so on. This paper
proposes a machine-learning-based approach to integrate the many individual
models of a subsystem's elements in a single compact model that can be re-used
and assembled further up in the hierarchy. The compact models provide
consistency, accuracy and confidentiality, allowing technology, IP, component,
sub-system or system providers to accompany their offering with high-quality
reliability and functional safety compact models that can be safely and
accurately consumed by their users.
- Abstract(参考訳): 典型的な設計フローは階層的であり、標準セルから完全なボードまで、多くの個々の技術要素を組み立てることに依存している。
プロバイダはコンパクトモデルを使用して、製品の簡易なビューをユーザに提供している。
設計者は、より複雑な構造においてより単純な要素をグループ化し、IP機密性やリバースエンジニアリングの可能性といった明らかな問題を伴って、システムの階層構造を通じて、信頼性と機能的安全情報の伝達を管理する必要がある。
本稿では,サブシステム要素の多数の個別モデルを単一のコンパクトモデルに統合し,階層構造に再利用可能な機械学習に基づくアプローチを提案する。
コンパクトモデルは一貫性、正確性、機密性を提供し、技術、ip、コンポーネント、サブシステムまたはシステムプロバイダは、ユーザが安全かつ正確に消費できる高品質の信頼性および機能安全コンパクトモデルを提供することができる。
関連論文リスト
- A Framework for the Security and Privacy of Biometric System Constructions under Defined Computational Assumptions [1.5446015139136167]
本稿では,安全な生体認証システムを構築するための公式な枠組みを提案する。
普遍的な構成可能性の原理を活用することで、個々のシステムコンポーネントのモジュラー解析と検証を可能にします。
論文 参考訳(メタデータ) (2024-11-26T11:10:11Z) - FedSub: Introducing class-aware Subnetworks Fusion to Enhance Personalized Federated Learning in Ubiquitous Systems [6.21540494241516]
FedSubは、クラス対応のプロトタイプとモデルワークを使用してパーソナライズを強化するために設計された、新しいアプローチである。
プロトタイプは、特定のラベルパターンに基づいて類似点を特定するためにサーバ上にクラスタ化された、ユーザデータのコンパクトな表現として機能する。
FedSubは、高データの均一性を特徴とする3つの現実シナリオで検証されている。
論文 参考訳(メタデータ) (2024-11-13T15:42:09Z) - Concept-Guided LLM Agents for Human-AI Safety Codesign [6.603483691167379]
ジェネレーティブAIは、安全工学を含むソフトウェア工学においてますます重要になっている。
ソフトウェアシステムの複雑さと安全性を効果的に解決できる、より高度で高度なアプローチを開発することが重要です。
安全解析やヒューマンAI符号設計に大規模言語モデルを活用するための,効率的かつハイブリッドな戦略を提案する。
論文 参考訳(メタデータ) (2024-04-03T11:37:01Z) - Towards Model-Driven Dashboard Generation for Systems-of-Systems [52.251635013691256]
本稿では、単純なダッシュボードモデルのリストをダッシュボードモデルに自動変換する、モデル駆動技術に依存しないアプローチについて述べる。
ダッシュボードのカスタマイズは抽象モデル表現を単に修正するだけで効率的に実現できる。
論文 参考訳(メタデータ) (2024-02-23T10:55:18Z) - Institutional Platform for Secure Self-Service Large Language Model Exploration [0.0]
論文では、データセットキュレーション、モデルトレーニング、セキュア推論、テキストベースの特徴抽出を含む、システムのアーキテクチャと重要な特徴について概説する。
プラットフォームはセキュアなLLMサービスの提供、プロセスとデータ分離の強調、エンドツーエンドの暗号化、ロールベースのリソース認証を目指している。
論文 参考訳(メタデータ) (2024-02-01T10:58:10Z) - ESPnet-SPK: full pipeline speaker embedding toolkit with reproducible recipes, self-supervised front-ends, and off-the-shelf models [51.35570730554632]
ESPnet-SPKは、話者埋め込み抽出器を訓練するためのツールキットである。
我々は、x-vectorから最近のSKA-TDNNまで、いくつかのモデルを提供している。
開発モデルと他のドメインとの橋渡しも目指しています。
論文 参考訳(メタデータ) (2024-01-30T18:18:27Z) - Unite-Divide-Unite: Joint Boosting Trunk and Structure for High-accuracy
Dichotomous Image Segmentation [48.995367430746086]
Dichotomous Image rendering (DIS) は、自然の風景からカテゴリーに依存しない前景の物体をピンポイントすることを目的としている。
本稿では, トランクと構造同定の有効性を高めるために, 相補的特徴を再構成し, 分割的に配置する, UDUN (Unite-Divide-Unite Network) を提案する。
1024*1024入力を用いて、ResNet-18で65.3fpsのリアルタイム推論を可能にする。
論文 参考訳(メタデータ) (2023-07-26T09:04:35Z) - VeriCompress: A Tool to Streamline the Synthesis of Verified Robust
Compressed Neural Networks from Scratch [10.061078548888567]
AIの広範な統合により、安全クリティカルなシナリオのために、エッジや同様のリミテッドリソースプラットフォームにニューラルネットワーク(NN)がデプロイされるようになる。
本研究では,頑健性を保証する圧縮モデルの検索とトレーニングを自動化するツールであるVeriCompressを紹介する。
この方法は、最先端のアプローチよりも2~3倍高速で、それぞれ15.1ポイントと9.8ポイントの平均精度とロバスト性ゲインで関連するベースラインアプローチを上回ります。
論文 参考訳(メタデータ) (2022-11-17T23:42:10Z) - Safe RAN control: A Symbolic Reinforcement Learning Approach [62.997667081978825]
本稿では,無線アクセスネットワーク(RAN)アプリケーションの安全管理のためのシンボル強化学習(SRL)アーキテクチャを提案する。
我々は、ユーザが所定のセルネットワークトポロジに対して高レベルの論理的安全性仕様を指定できる純粋に自動化された手順を提供する。
ユーザがシステムに意図仕様を設定するのを支援するために開発されたユーザインターフェース(UI)を導入し、提案するエージェントの動作の違いを検査する。
論文 参考訳(メタデータ) (2021-06-03T16:45:40Z) - Integrated Benchmarking and Design for Reproducible and Accessible
Evaluation of Robotic Agents [61.36681529571202]
本稿では,開発とベンチマークを統合した再現性ロボット研究の新しい概念について述べる。
このセットアップの中心的なコンポーネントの1つはDuckietown Autolabであり、これは比較的低コストで再現可能な標準化されたセットアップである。
本研究では,インフラを用いて実施した実験の再現性を解析し,ロボットのハードウェアや遠隔実験室間でのばらつきが低いことを示す。
論文 参考訳(メタデータ) (2020-09-09T15:31:29Z) - Towards an Interface Description Template for AI-enabled Systems [77.34726150561087]
再利用(Reuse)は、システムアーキテクチャを既存のコンポーネントでインスタンス化しようとする、一般的なシステムアーキテクチャのアプローチである。
現在、コンポーネントが当初目的としていたものと異なるシステムで運用する可搬性を評価するために必要な情報の選択をガイドするフレームワークは存在しない。
我々は、AI対応コンポーネントの主情報をキャプチャするインターフェイス記述テンプレートの確立に向けて、現在進行中の作業について述べる。
論文 参考訳(メタデータ) (2020-07-13T20:30:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。