論文の概要: Execution-time opacity control for timed automata
- arxiv url: http://arxiv.org/abs/2409.10336v1
- Date: Mon, 16 Sep 2024 14:46:52 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-17 14:28:31.966357
- Title: Execution-time opacity control for timed automata
- Title(参考訳): 時間付きオートマトンにおける実行時不透明度制御
- Authors: Étienne André, Marie Duflot, Laetitia Laversa, Engel Lefaucheux,
- Abstract要約: タイムドオートマトンにおけるタイミングリークは、攻撃者がタイムドビヘイビアを観察して秘密を推論できるときに起こりうる。
実行時の不透明さにおいて、攻撃者は実行時間だけを観察して、プライベートな場所が訪れたかどうかを推定することを目的としている。
TAが実行時に制御可能かどうかを判断して不透明性を確保することができることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Timing leaks in timed automata (TA) can occur whenever an attacker is able to deduce a secret by observing some timed behavior. In execution-time opacity, the attacker aims at deducing whether a private location was visited, by observing only the execution time. It can be decided whether a TA is opaque in this setting. In this work, we tackle control, and show that we are able to decide whether a TA can be controlled at runtime to ensure opacity. Our method is constructive, in the sense that we can exhibit such a controller. We also address the case when the attacker cannot have an infinite precision in its observations.
- Abstract(参考訳): タイムドオートマトン(TA)のタイミングリークは、攻撃者がタイムドビヘイビアを観察して秘密を推論できるときに起こりうる。
実行時の不透明さにおいて、攻撃者は実行時間だけを観察して、プライベートな場所が訪れたかどうかを推定することを目的としている。
この設定でTAが不透明かどうかを決定することができる。
本研究では、制御に取り組み、TAが実行時に制御可能かどうかを判断し、不透明性を確保することができることを示す。
このようなコントローラを表示できるという意味では,本手法は構築的です。
また、攻撃者が観測において無限の精度を持てない場合にも対処する。
関連論文リスト
- The Bright Side of Timed Opacity [0.0]
1回のTAと1時間のTAは$epsilon$-transitionsのみである。
次に,攻撃者による観察回数が制限された新たな決定可能なサブクラスを示す。
論文 参考訳(メタデータ) (2024-08-22T09:17:59Z) - Expiring opacity problems in parametric timed automata [0.0]
タイムドオートマトンにおける期限付き不透明度問題について検討した。
我々は,システムが不透明な時間境界の集合を考察し,時間付きオートマトンに対して有効に計算できることを示す。
論文 参考訳(メタデータ) (2024-03-12T13:30:53Z) - Semi-supervised Open-World Object Detection [74.95267079505145]
半教師付きオープンワールド検出(SS-OWOD)という,より現実的な定式化を導入する。
提案したSS-OWOD設定では,最先端OWOD検出器の性能が劇的に低下することが実証された。
我々は,MS COCO, PASCAL, Objects365, DOTAの4つのデータセットを用いた実験を行い, 提案手法の有効性を実証した。
論文 参考訳(メタデータ) (2024-02-25T07:12:51Z) - Configuring Timing Parameters to Ensure Execution-Time Opacity in Timed
Automata [2.2003515924552044]
タイムオートマトン(Timed Automatica)は、有限状態オートマトンの拡張であり、一連のクロックが線形に進化する。
我々は、タイムドオートマトンを入力形式として使用し、攻撃者がシステム実行時間のみにアクセス可能であると仮定する。
論文 参考訳(メタデータ) (2023-10-31T12:10:35Z) - The Adversarial Implications of Variable-Time Inference [47.44631666803983]
本稿では,攻撃対象のMLモデルの予測を後処理するアルゴリズムの実行時間を簡単に計測する,新たなサイドチャネルを利用するアプローチを提案する。
我々は,物体検出装置の動作において重要な役割を果たす非最大抑圧(NMS)アルゴリズムからの漏れを調査する。
我々は、YOLOv3検出器に対する攻撃を実演し、タイミングリークを利用して、逆例を用いてオブジェクト検出を回避し、データセット推論を行う。
論文 参考訳(メタデータ) (2023-09-05T11:53:17Z) - Actor-Critic with variable time discretization via sustained actions [0.0]
SusACERは、異なる時間離散化設定の利点を組み合わせた、非政治強化学習アルゴリズムである。
ロボット制御環境における時間偏差変化の影響を解析する:Ant, HalfCheetah, Hopper, Walker2D。
論文 参考訳(メタデータ) (2023-08-08T14:45:00Z) - Safety Margins for Reinforcement Learning [53.10194953873209]
安全マージンを生成するためにプロキシ臨界度メトリクスをどのように活用するかを示す。
Atari 環境での APE-X と A3C からの学習方針に対するアプローチを評価する。
論文 参考訳(メタデータ) (2023-07-25T16:49:54Z) - When to Ask for Help: Proactive Interventions in Autonomous
Reinforcement Learning [57.53138994155612]
強化学習の長期的な目標は、世界で自律的に対話し学習できるエージェントを設計することである。
重要な課題は、ロボットアームが物体をテーブルから押し出したときなど、外部からの援助を必要とする不可逆状態の存在である。
本研究では,非可逆状態の検出と回避を効率よく学習し,エージェントが侵入した場合に積極的に支援を求めるアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-10-19T17:57:24Z) - Learning Uncertainty For Safety-Oriented Semantic Segmentation In
Autonomous Driving [77.39239190539871]
自律運転における安全クリティカル画像セグメンテーションを実現するために、不確実性推定をどのように活用できるかを示す。
相似性関数によって測定された不一致予測に基づく新しい不確実性尺度を導入する。
本研究では,提案手法が競合手法よりも推論時間において計算集約性が低いことを示す。
論文 参考訳(メタデータ) (2021-05-28T09:23:05Z) - Learning-based attacks in Cyber-Physical Systems: Exploration,
Detection, and Control Cost trade-offs [9.453554184019108]
制御器とプラント間の通信路を悪意ある攻撃者によってハイジャックできる線形システムにおける学習ベース攻撃の問題点について検討する。
我々は、攻撃者が観測からシステムの力学を学習し、コントローラの動作信号をオーバーライドすると仮定する。
この境界も最適であり、攻撃者がそれを満足すると、与えられた順序が予測される詐欺時間を持つ学習アルゴリズムが存在するという見地から示している。
論文 参考訳(メタデータ) (2020-11-21T04:08:16Z) - Is Private Learning Possible with Instance Encoding? [68.84324434746765]
本研究では,インスタンスエンコーディング機構を用いて,非プライベートな学習アルゴリズムをプライベートにすることができるかを検討する。
2つの攻撃モデルを提供することで、インスタンスエンコーディングの概念とプライバシの両方を形式化する。
論文 参考訳(メタデータ) (2020-11-10T18:55:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。