論文の概要: Randomization to Reduce Terror Threats at Large Venues
- arxiv url: http://arxiv.org/abs/2503.22763v1
- Date: Thu, 27 Mar 2025 20:12:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-01 14:36:18.616730
- Title: Randomization to Reduce Terror Threats at Large Venues
- Title(参考訳): 大規模道路におけるテロ脅威低減のためのランダム化
- Authors: Paul B. Kantor, Fred S. Roberts,
- Abstract要約: 本報告では,この問題の広範な研究から得られた知見について述べる。
インタビューや、選ばれた会場のセキュリティディレクターのアンケートを含む。
ランダム性が有効性を向上させる方法について議論する。
- 参考スコア(独自算出の注目度): 0.276240219662896
- License:
- Abstract: Can randomness be better than scheduled practices, for securing an event at a large venue such as a stadium or entertainment arena? Perhaps surprisingly, from several perspectives the answer is "yes." This note examines findings from an extensive study of the problem, including interviews and a survey of selected venue security directors. That research indicates that: randomness has several goals; many security directors recognize its potential; but very few have used it much, if at all. Some fear they will not be able to defend using random methods if an adversary does slip through security. Others are concerned that staff may not be able to perform effectively. We discuss ways in which it appears that randomness can improve effectiveness, ways it can be effectively justified to those who must approve security processes, and some potential research or regulatory advances.
- Abstract(参考訳): スタジアムやエンターテイメントアリーナのような大きな会場でのイベントの確保は、予定よりランダム性がよいのだろうか?
おそらく驚くべきことに、いくつかの観点から答えは「はい」である。
本報告では,問題に関する広範な調査から得られた知見について考察する。
ランダム性にはいくつかの目標があり、多くのセキュリティディレクターはその可能性を認識しています。
敵がセキュリティを突破した場合、ランダムメソッドを使って防御することができないと恐れる人もいる。
他の人々は、スタッフが効果的に実行できないかもしれないと懸念しています。
ランダム性が有効性を改善する方法、セキュリティプロセスの承認が必要な人に効果的に正当化する方法、潜在的な研究や規制の進歩について論じる。
関連論文リスト
- Can a Bayesian Oracle Prevent Harm from an Agent? [48.12936383352277]
我々は、所定の安全仕様に違反する確率に基づいて、文脈依存境界を推定することを検討する。
世界の異なる仮説が全く異なる結果をもたらす可能性があることに注意し、我々は真だが未知の仮説の下で予測される安全違反の確率に基づいて導かれる。
iidの場合と非idの場合の2つの形態を考察し、その結果を実用的なAIガードレールに変換するためのオープンな問題に結論付ける。
論文 参考訳(メタデータ) (2024-08-09T18:10:42Z) - A Quantal Response Analysis of Defender-Attacker Sequential Security Games [1.3022753212679383]
2つのサイトと、ディフェンダーとアタッカーの間のシーケンシャルゲームを含むシナリオを探索する。
攻撃の目的は、防御者のセキュリティ投資を考慮して、防御者の期待する損失を最大化するサイトをターゲットにすることである。
我々は、人間が効率的な(純粋な)戦略を選択する際にエラーを犯す量子的行動バイアスを考察する。
論文 参考訳(メタデータ) (2024-08-02T00:40:48Z) - Lotto: Secure Participant Selection against Adversarial Servers in Federated Learning [10.837054387435844]
フェデレートラーニング(FL)技術は、様々な攻撃に耐えるために参加者の正直な多数派を仮定することに依存する。
しかし、実際には、サーバは常に信頼されているわけではなく、敵サーバは、妥協したクライアントを戦略的に選択して、不正な多数派を作ることができる。
本稿では、この基本的な問題に対処するFLシステムであるLottoについて、敵サーバに対してセキュアなセレクション選択を提供することにより、未探索の課題に対処する。
論文 参考訳(メタデータ) (2024-01-05T16:16:13Z) - Safeguarded Progress in Reinforcement Learning: Safe Bayesian
Exploration for Control Policy Synthesis [63.532413807686524]
本稿では、強化学習(RL)におけるトレーニング中の安全維持の問題に対処する。
探索中の効率的な進捗と安全性のトレードオフを扱う新しいアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-12-18T16:09:43Z) - Machine Learning needs Better Randomness Standards: Randomised Smoothing
and PRNG-based attacks [14.496582479888765]
攻撃者が一般的に依存するランダム性のみを用いて、機械学習システムに侵入できるかどうかを検討する。
我々は、攻撃者が供給されたランダム性をバックドアして、最大81回まで過大評価または過小評価のロバスト性を証明する、全く新しい攻撃を実演する。
我々は、安全クリティカルでセキュリティクリティカルな機械学習アプリケーションにもっと適するように、乱数テストに関するNISTガイドラインの更新を推奨する。
論文 参考訳(メタデータ) (2023-06-24T19:50:08Z) - Among Us: Adversarially Robust Collaborative Perception by Consensus [50.73128191202585]
複数のロボットは、シーン(例えば物体)を個人よりも協調的に知覚することができる。
本稿では,未知の攻撃者に対して一般化可能な新しいサンプリングベース防衛戦略であるROBOSACを提案する。
自律運転シナリオにおける協調3次元物体検出の課題に対して,本手法の有効性を検証した。
論文 参考訳(メタデータ) (2023-03-16T17:15:25Z) - Provable Safe Reinforcement Learning with Binary Feedback [62.257383728544006]
状態, アクションペアの安全性に対するバイナリフィードバックを提供するオフラインオラクルへのアクセスを与えられた場合, 証明可能な安全なRLの問題を考える。
我々は,その設定に対してブラックボックスPAC RLアルゴリズムに与えられた任意のMDP設定に適用可能な,新しいメタアルゴリズムSABREを提案する。
論文 参考訳(メタデータ) (2022-10-26T05:37:51Z) - Safe Reinforcement Learning by Imagining the Near Future [37.0376099401243]
本研究は, 短期的に計画することで, 安全でない状態を回避できるような環境に着目する。
我々は、安全でない軌跡を過度に罰するモデルに基づくアルゴリズムを考案し、そのアルゴリズムが特定の仮定の下で安全でない状態を回避できることを保証する。
実験により, 連続制御タスクにおいて, 安全性違反が少なく, 競争力のある報奨を達成できることが実証された。
論文 参考訳(メタデータ) (2022-02-15T23:28:24Z) - Safer Reinforcement Learning through Transferable Instinct Networks [6.09170287691728]
我々は,新たな政策が主方針を覆し,より安全な代替手段を提供するアプローチを提案する。
我々の本能制御型RL(IR2L)アプローチでは、望ましくない状況を認識するために「本能的」ネットワークを訓練する。
オープンAI安全体育ドメインのIR2Lについて, 安全性違反の件数が著しく少ないことを実証する。
論文 参考訳(メタデータ) (2021-07-14T13:22:04Z) - Conservative Safety Critics for Exploration [120.73241848565449]
強化学習(RL)における安全な探索の課題について検討する。
我々は、批評家を通じて環境状態の保守的な安全性推定を学習する。
提案手法は,破滅的故障率を著しく低く抑えながら,競争力のあるタスク性能を実現することができることを示す。
論文 参考訳(メタデータ) (2020-10-27T17:54:25Z) - Towards Safe Policy Improvement for Non-Stationary MDPs [48.9966576179679]
多くの実世界の利害問題は非定常性を示し、利害関係が高ければ、偽の定常性仮定に関連するコストは受け入れがたい。
我々は、スムーズに変化する非定常的な意思決定問題に対して、高い信頼性で安全性を確保するための第一歩を踏み出します。
提案手法は,時系列解析を用いたモデルフリー強化学習の合成により,セルドンアルゴリズムと呼ばれる安全なアルゴリズムを拡張した。
論文 参考訳(メタデータ) (2020-10-23T20:13:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。