論文の概要: Safety-Critical Adaptation in Self-Adaptive Systems
- arxiv url: http://arxiv.org/abs/2210.00095v1
- Date: Fri, 30 Sep 2022 21:16:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-04 17:01:51.508347
- Title: Safety-Critical Adaptation in Self-Adaptive Systems
- Title(参考訳): 自己適応システムにおける安全臨界適応
- Authors: Simon Diemert, Jens H. Weber
- Abstract要約: 本稿では,安全クリティカルな自己適応システムの定義を提案する。
システムの安全性とシステムの安全性ケースに対する影響に基づいて、適応を異なるタイプに分類するための分類法を記述する。
分類学の各タイプは、安全クリティカルな自己適応型給湯システムの例を用いて説明される。
- 参考スコア(独自算出の注目度): 1.599072005190786
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Modern systems are designed to operate in increasingly variable and uncertain
environments. Not only are these environments complex, in the sense that they
contain a tremendous number of variables, but they also change over time.
Systems must be able to adjust their behaviour at run-time to manage these
uncertainties. These self-adaptive systems have been studied extensively. This
paper proposes a definition of a safety-critical self-adaptive system and then
describes a taxonomy for classifying adaptations into different types based on
their impact on the system's safety and the system's safety case. The taxonomy
expresses criteria for classification and then describes specific criteria that
the safety case for a self-adaptive system must satisfy, depending on the type
of adaptations performed. Each type in the taxonomy is illustrated using the
example of a safety-critical self-adaptive water heating system.
- Abstract(参考訳): 現代のシステムは、ますます変動し、不確実な環境で動くように設計されている。
これらの環境は、非常に多くの変数を含むという意味で複雑なだけでなく、時間とともに変化します。
システムはこれらの不確実性を管理するために、実行時に動作を調整する必要があります。
これらの自己適応システムは広く研究されている。
本稿では,安全クリティカルな自己適応システムの定義を提案し,システムの安全性とシステム安全ケースに対する影響に基づいて,適応を異なるタイプに分類する分類法を提案する。
分類学は分類の基準を表現し、実行された適応の種類に応じて、自己適応システムの安全性ケースが満たさなければならない特定の基準を記述する。
分類学の各タイプは、安全クリティカルな自己適応型給湯システムの例を用いて示される。
関連論文リスト
- Controllable Safety Alignment: Inference-Time Adaptation to Diverse Safety Requirements [46.79887158348167]
大規模言語モデル(LLM)の安全性アライメントに関する現在のパラダイムは、一大のアプローチに従っている。
我々は,モデルの再トレーニングを伴わず,多様な安全要件に適応するフレームワークとして,制御可能な安全アライメント(CoSA)を提案する。
論文 参考訳(メタデータ) (2024-10-11T16:38:01Z) - Towards Formal Fault Injection for Safety Assessment of Automated
Systems [0.0]
本稿では,開発ライフサイクルを通じてこれら2つのテクニックを融合したフォーマルなフォールトインジェクションを紹介する。
我々は,形式的手法と断層注入の相互支援の5つの領域を同定し,より密着的なアプローチを提唱する。
論文 参考訳(メタデータ) (2023-11-16T11:34:18Z) - "One-Size-Fits-All"? Examining Expectations around What Constitute "Fair" or "Good" NLG System Behaviors [57.63649797577999]
NLGシステム入力において、異なる種類のアイデンティティ関連言語特徴(名前、役割、場所、方言、スタイル)を摂動するケーススタディを行う。
適応の動機には、社会的規範、文化的相違、特徴特化情報、宿泊が含まれる。
対照的に、不変性のモチベーションには、規範主義を支持する視点、NLGシステムが適切に行うのが不必要または困難であると見なす視点、偽の仮定に注意を払っている視点が含まれる。
論文 参考訳(メタデータ) (2023-10-23T23:00:34Z) - DARTH: Holistic Test-time Adaptation for Multiple Object Tracking [87.72019733473562]
複数物体追跡(MOT)は、自律運転における知覚システムの基本的構成要素である。
運転システムの安全性の追求にもかかわらず、テスト時間条件における領域シフトに対するMOT適応問題に対する解決策は提案されていない。
我々はMOTの総合的なテスト時間適応フレームワークであるDARTHを紹介する。
論文 参考訳(メタデータ) (2023-10-03T10:10:42Z) - Towards Model Co-evolution Across Self-Adaptation Steps for Combined
Safety and Security Analysis [44.339753503750735]
自己適応システムの異なる側面を記述するモデルをいくつか提示する。
これらのモデルがどのようにしてアタックフォールトツリーに組み込むことができるのかという考え方を概説する。
論文 参考訳(メタデータ) (2023-09-18T10:35:40Z) - Awareness requirement and performance management for adaptive systems: a
survey [13.406015141662879]
自己適応型ソフトウェアは、プログラムが意図通りに実行されていないことや、改善された機能や性能が利用可能であるときに、その振る舞いを変更することができる。
本稿では,要求意識の文脈における自己適応システムのレビューを行い,最も一般的な方法論を要約する。
論文 参考訳(メタデータ) (2023-01-22T14:27:11Z) - Dealing with Drift of Adaptation Spaces in Learning-based Self-Adaptive
Systems using Lifelong Self-Adaptation [10.852698169509006]
我々は、学習に基づく自己適応システムにおいて特に重要な課題である適応空間のドリフトに焦点を当てる。
適応空間のドリフトは不確実性に起因し、適応オプションの品質に影響を及ぼす。
本稿では、生涯ML層を用いた学習に基づく自己適応システムを強化するための、新しい自己適応手法を提案する。
論文 参考訳(メタデータ) (2022-11-04T07:45:48Z) - Auto-COP: Adaptation Generation in Context-Oriented Programming using
Reinforcement Learning Options [2.984934409689467]
本稿では,実行時の適応生成を可能にする新しい手法であるAuto-COPを提案する。
本稿では,異なるシステム特性と応用領域を示す2つのケーススタディを示す。
生成した適応は、ドメイン固有のパフォーマンス指標によって測定された正しいシステム挙動を示す。
論文 参考訳(メタデータ) (2021-03-11T16:14:56Z) - Learning Hybrid Control Barrier Functions from Data [66.37785052099423]
ハイブリッドシステムの安全な制御法則を得るための体系的なツールが欠如していることから,データから確実に安全な制御法則を学習するための最適化ベースのフレームワークを提案する。
特に、システムダイナミクスが知られており、安全なシステム動作を示すデータが利用可能であるような設定を仮定する。
論文 参考訳(メタデータ) (2020-11-08T23:55:02Z) - Towards robust sensing for Autonomous Vehicles: An adversarial
perspective [82.83630604517249]
結果として得られる決定が摂動に対して堅牢であることは、最も重要なことです。
敵対的摂動は、意図的に環境や感覚測定の修正を施したものである。
より安全なシステムの構築とデプロイには,センサーシステムの脆弱性を慎重に評価する必要がある。
論文 参考訳(メタデータ) (2020-07-14T05:25:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。