論文の概要: Language-based Security and Time-inserting Supervisor
- arxiv url: http://arxiv.org/abs/2505.16503v1
- Date: Thu, 22 May 2025 10:36:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-23 17:12:48.229652
- Title: Language-based Security and Time-inserting Supervisor
- Title(参考訳): 言語ベースのセキュリティと時間挿入スーパーバイザ
- Authors: Damas P. Gruska,
- Abstract要約: 安全でないプロセスの望ましくない動作を無効にできるスーパーバイザが導入される。
このようなスーパーバイザーが存在する条件と、その特性と限界について検討する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Algebraic methods are employed in order to define language-based security properties of processes. A supervisor is introduced that can disable unwanted behavior of an insecure process by controlling some of its actions or by inserting timed actions to make an insecure process secure. We assume a situation where neither the supervisor nor the attacker has complete information about the ongoing systems behavior. We study the conditions under which such a supervisor exists, as well as its properties and limitations.
- Abstract(参考訳): 代数的手法は、プロセスの言語ベースのセキュリティ特性を定義するために用いられる。
安全でないプロセスの望ましくない動作を、その動作の一部を制御したり、時間的な動作を挿入して安全にする。
我々は、監視官も攻撃者も、現在進行中のシステム行動に関する情報を完備していない状況を想定している。
このようなスーパーバイザーが存在する条件と、その特性と限界について検討する。
関連論文リスト
- Automating Security Audit Using Large Language Model based Agent: An Exploration Experiment [7.039114328812774]
セキュリティ監査は、ポリシーが成立し、コントロールが実施され、サイバーセキュリティのリスク軽減のためにギャップが特定されることを保証することで、強力なセキュリティ姿勢を維持するのに役立つ。
本稿では,大規模言語モデル(LLM)を自律エージェントとして活用し,セキュリティ監査の一部を実行するフレームワークの開発の可能性を検討する。
論文 参考訳(メタデータ) (2025-05-15T22:22:52Z) - AgentOrca: A Dual-System Framework to Evaluate Language Agents on Operational Routine and Constraint Adherence [54.317522790545304]
本稿では,言語エージェントの動作制約やルーチンに対するコンプライアンスを評価するための,デュアルシステムフレームワークであるAgentOrcaを提案する。
本フレームワークは,エージェントの自然言語プロンプトと,それに対応する実行可能コードが,自動検証のための基礎的真理として機能することを通じて,行動制約とルーチンを符号化する。
以上の結果から,o1のような大きな推論モデルではコンプライアンスが良好であり,他のモデルではパフォーマンスが著しく低下していることが明らかとなった。
論文 参考訳(メタデータ) (2025-03-11T17:53:02Z) - The Task Shield: Enforcing Task Alignment to Defend Against Indirect Prompt Injection in LLM Agents [6.829628038851487]
大きな言語モデル(LLM)エージェントは、ツール統合を通じて複雑な現実世界のタスクを実行できる対話アシスタントとして、ますます多くデプロイされている。
特に間接的なプロンプトインジェクション攻撃は、外部データソースに埋め込まれた悪意のある命令が、エージェントを操作してユーザの意図を逸脱させる、重大な脅威となる。
我々は,エージェントのセキュリティが有害な行為を防止し,タスクアライメントを確保するためには,すべてのエージェントアクションをユーザ目的に役立てる必要がある,という新たな視点を提案する。
論文 参考訳(メタデータ) (2024-12-21T16:17:48Z) - SCANS: Mitigating the Exaggerated Safety for LLMs via Safety-Conscious Activation Steering [56.92068213969036]
悪意のある命令から脅威を守るために、LLM(Large Language Models)には安全アライメントが不可欠である。
近年の研究では、過大な安全性の問題により、安全性に配慮したLCMは、良質な問い合わせを拒否する傾向にあることが明らかになっている。
過大な安全性の懸念を和らげるために,SCANS法を提案する。
論文 参考訳(メタデータ) (2024-08-21T10:01:34Z) - Safety Margins for Reinforcement Learning [53.10194953873209]
安全マージンを生成するためにプロキシ臨界度メトリクスをどのように活用するかを示す。
Atari 環境での APE-X と A3C からの学習方針に対するアプローチを評価する。
論文 参考訳(メタデータ) (2023-07-25T16:49:54Z) - Correct-by-Construction Runtime Enforcement in AI -- A Survey [3.509295509987626]
執行とは、実行時のシステムの正式な仕様に関して正しい振る舞いを強制する理論、技術、ツールを指す。
我々は、AIの分野で伝統的に安全がどのように扱われているか、そしてランタイムの執行機関を統合することで、自律学習エージェントの安全性に対するより正式な保証が与えられるかについて議論する。
論文 参考訳(メタデータ) (2022-08-30T17:45:38Z) - Reinforcement Learning for Task Specifications with Action-Constraints [4.046919218061427]
有限状態マルコフ決定過程の最適制御ポリシーを学習する手法を提案する。
安全でないと考えられるアクションシーケンスの集合が有限状態オートマトンによって与えられると仮定する。
非マルコフ的行動系列と状態制約の存在下で最適なポリシーを学習するためのQ-learningアルゴリズムのバージョンを提案する。
論文 参考訳(メタデータ) (2022-01-02T04:22:01Z) - Learning to Be Cautious [47.92658607280631]
自律システムが直面する可能性のあるあらゆる状況や、どんな行動が悪い結果を避けるのが最善かを予測することは不可能である。
現在のアプローチでは、通常、タスク固有の安全情報や明示的な慎重な振る舞いをシステムに組み込む。
注意深い行動がますます不要になるタスクのシーケンスと、システムが注意深いことを学習できることを実証するアルゴリズムを提示する。
論文 参考訳(メタデータ) (2021-10-29T16:52:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。