論文の概要: OACAL: Finding Module-Consistent Solutions to Weaken User Obligations
- arxiv url: http://arxiv.org/abs/2108.08282v1
- Date: Mon, 16 Aug 2021 12:09:05 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-20 01:01:12.179579
- Title: OACAL: Finding Module-Consistent Solutions to Weaken User Obligations
- Title(参考訳): OACAL: ユーザオブジェクトを弱めるためのモジュール一貫性ソリューションを見つける
- Authors: Pengcheng Jiang and Kenji Tei
- Abstract要約: 本稿では,ユーザ義務の弱さによる攻撃シナリオに対応する仕様修正を自動的に生成する効率的なアルゴリズムを提案する。
アルゴリズムにより、全てのリビジョンは、機能の整合性を元の仕様として維持する。
我々は,提案アルゴリズムの性能を,その適用範囲と検索速度に関する最先端のアプローチと比較することにより評価する。
- 参考スコア(独自算出の注目度): 1.8377740581395554
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Users interacting with a UI-embedded machine or system are typically obliged
to perform their actions in a pre-determined order, to successfully achieve
certain functional goals. However, such obligations are often not followed
strictly by users, which may lead to the violation to security properties,
especially in security-critical systems. In order to improve the security with
the awareness of unexpected user behaviors, a system can be redesigned to a
more robust one by changing the order of actions in its specification.
Meanwhile, we anticipate that the functionalities would remain consistent
following the modifications. In this paper, we propose an efficient algorithm
to automatically produce specification revisions tackling with attack scenarios
caused by the weakened user obligations. By our algorithm, all the revisions
maintain the integrity of the functionalities as the original specification,
which are generated using a novel recomposition approach. Then, the qualified
revisions that can satisfy the security requirements would be efficiently
spotted by a hybrid approach combining model checking and machine learning
techniques. We evaluate our algorithm by comparing its performance with a
state-of-the-art approach regarding their coverage and searching speed of the
desirable revisions.
- Abstract(参考訳): ui組み込みマシンやシステムと対話するユーザは、事前に決められた順序でアクションを実行し、特定の機能目標を達成する必要がある。
しかし、そのような義務はしばしばユーザーによって厳密に守られず、特にセキュリティクリティカルなシステムではセキュリティプロパティに違反する可能性がある。
予期せぬユーザの振る舞いを意識してセキュリティを改善するために、システムは仕様のアクションの順序を変更して、より堅牢なものに再設計することができる。
一方,機能変更後に一貫性が保たれると予測している。
本稿では,ユーザ義務の弱化による攻撃シナリオに対応する仕様修正を自動的に生成する効率的なアルゴリズムを提案する。
提案手法では,全ての修正が元の仕様として機能の完全性を維持し,新しい再結合手法を用いて生成する。
次に、セキュリティ要件を満たした認定リビジョンを、モデルチェックと機械学習技術を組み合わせたハイブリッドアプローチによって効率的に検出する。
本アルゴリズムは,その性能を,望ましい修正のカバレッジと探索速度に関する最先端のアプローチと比較することで評価する。
関連論文リスト
- Verification-Aided Learning of Neural Network Barrier Functions with
Termination Guarantees [6.9060054915724]
バリア関数は、システムの安全性を保証するための一般的なフレームワークである。
これらの関数を見つける一般的な方法は存在しない。
近年のアプローチでは、自己教師付き学習技術を用いてこれらの機能を学習している。
論文 参考訳(メタデータ) (2024-03-12T04:29:43Z) - ASSERT: Automated Safety Scenario Red Teaming for Evaluating the
Robustness of Large Language Models [65.79770974145983]
ASSERT、Automated Safety Scenario Red Teamingは、セマンティックなアグリゲーション、ターゲットブートストラップ、敵の知識注入という3つの方法で構成されている。
このプロンプトを4つの安全領域に分割し、ドメインがモデルの性能にどのように影響するかを詳細に分析する。
統計的に有意な性能差は, 意味的関連シナリオにおける絶対分類精度が最大11%, ゼロショット逆数設定では最大19%の絶対誤差率であることがわかった。
論文 参考訳(メタデータ) (2023-10-14T17:10:28Z) - Evaluating Model-free Reinforcement Learning toward Safety-critical
Tasks [70.76757529955577]
本稿では、国家安全RLの観点から、この領域における先行研究を再考する。
安全最適化と安全予測を組み合わせた共同手法であるUnrolling Safety Layer (USL)を提案する。
この領域のさらなる研究を容易にするため、我々は関連するアルゴリズムを統一パイプラインで再現し、SafeRL-Kitに組み込む。
論文 参考訳(メタデータ) (2022-12-12T06:30:17Z) - Safe Policy Improvement in Constrained Markov Decision Processes [10.518340300810504]
本稿では,形式的要件の集合からの報酬形成と安全なポリシー更新という2つの課題を解くことで,合成問題の解決法を提案する。
前者に対しては,タスク仕様に準拠したスカラー報酬信号を定義する自動報酬生成手法を提案する。
後者では,高信頼度保証を伴う安全な方法でポリシーが改善されることを保証するアルゴリズムを導入する。
論文 参考訳(メタデータ) (2022-10-20T13:29:32Z) - Recursively Feasible Probabilistic Safe Online Learning with Control
Barrier Functions [63.18590014127461]
本稿では,CBFをベースとした安全クリティカルコントローラのモデル不確実性を考慮した再構成を提案する。
本研究では,ロバストな安全クリティカルコントローラの実現可能性について検討する。
次に、これらの条件を使って、イベントトリガーによるオンラインデータ収集戦略を考案します。
論文 参考訳(メタデータ) (2022-08-23T05:02:09Z) - Log Barriers for Safe Black-box Optimization with Application to Safe
Reinforcement Learning [72.97229770329214]
本稿では,学習時の安全性維持が不可欠である高次元非線形最適化問題に対する一般的なアプローチを提案する。
LBSGDと呼ばれるアプローチは、慎重に選択されたステップサイズで対数障壁近似を適用することに基づいている。
安全強化学習における政策課題の違反を最小限に抑えるためのアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2022-07-21T11:14:47Z) - Joint Differentiable Optimization and Verification for Certified
Reinforcement Learning [91.93635157885055]
安全クリティカル制御システムのためのモデルベース強化学習では,システム特性を正式に認定することが重要である。
本稿では,強化学習と形式検証を共同で行う枠組みを提案する。
論文 参考訳(メタデータ) (2022-01-28T16:53:56Z) - Safe RAN control: A Symbolic Reinforcement Learning Approach [62.997667081978825]
本稿では,無線アクセスネットワーク(RAN)アプリケーションの安全管理のためのシンボル強化学習(SRL)アーキテクチャを提案する。
我々は、ユーザが所定のセルネットワークトポロジに対して高レベルの論理的安全性仕様を指定できる純粋に自動化された手順を提供する。
ユーザがシステムに意図仕様を設定するのを支援するために開発されたユーザインターフェース(UI)を導入し、提案するエージェントの動作の違いを検査する。
論文 参考訳(メタデータ) (2021-06-03T16:45:40Z) - Probabilistic Guarantees for Safe Deep Reinforcement Learning [6.85316573653194]
深層強化学習は多くの制御タスクにうまく適用されているが、安全上の懸念から、そのようなエージェントの安全クリティカルなシナリオへの応用は制限されている。
そこで我々は, 深層強化学習エージェントの安全性を評価するアルゴリズムMOSAICを提案する。
論文 参考訳(メタデータ) (2020-05-14T15:42:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。