論文の概要: Emerging Technology and Policy Co-Design Considerations for the Safe and
Transparent Use of Small Unmanned Aerial Systems
- arxiv url: http://arxiv.org/abs/2212.02795v1
- Date: Tue, 6 Dec 2022 07:17:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 12:50:52.320736
- Title: Emerging Technology and Policy Co-Design Considerations for the Safe and
Transparent Use of Small Unmanned Aerial Systems
- Title(参考訳): 小型無人航空機システムの安全・透明化に向けた新技術と政策共同設計
- Authors: Ritwik Gupta, Alexander Bayen, Sarah Rohrschneider, Adrienne Fulk,
Andrew Reddie, Sanjit A. Seshia, Shankar Sastry, Janet Napolitano
- Abstract要約: sUASセクターで見られる急速な技術発展は、これらの機器を運用する安全で信頼できる環境を提供するための政策や規制にギャップを残している。
人的要因から自治に至るまで、我々は、sUAS産業の成長に伴う政策ギャップを減らすために、学術、商業、政府部門のパートナーによって取られる一連の措置を推奨する。
- 参考スコア(独自算出の注目度): 55.60330679737718
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The rapid technological growth observed in the sUAS sector over the past
decade has been unprecedented and has left gaps in policies and regulations to
adequately provide for a safe and trusted environment in which to operate these
devices. The Center for Security in Politics at UC Berkeley, via a two-day
workshop, analyzed these gaps by addressing the entire sUAS vertical. From
human factors to autonomy, we recommend a series of steps that can be taken by
partners in the academic, commercial, and government sectors to reduce policy
gaps introduced in the wake of the growth of the sUAS industry.
- Abstract(参考訳): 過去10年間にSUASセクターで見られた急速な技術発展は前例がなく、これらの機器を運用するための安全で信頼できる環境を適切に提供するための政策や規制にギャップを残している。
ucバークレーのcenter for security in politicsは2日間のワークショップを通じて、suasの分野全体に対処することで、これらのギャップを分析した。
人的要因から自律性まで,学術,商業,政府分野のパートナが,suas産業の成長に伴う政策格差を軽減するための一連のステップを推奨する。
関連論文リスト
- A Safe Harbor for AI Evaluation and Red Teaming [124.89885800509505]
一部の研究者は、そのような研究の実施や研究成果の公表が、アカウント停止や法的報復につながることを恐れている。
我々は、主要なAI開発者が法的、技術的に安全な港を提供することを約束することを提案します。
これらのコミットメントは、ジェネレーティブAIのリスクに取り組むための、より包括的で意図しないコミュニティ努力への必要なステップである、と私たちは信じています。
論文 参考訳(メタデータ) (2024-03-07T20:55:08Z) - Safeguarded Progress in Reinforcement Learning: Safe Bayesian
Exploration for Control Policy Synthesis [63.532413807686524]
本稿では、強化学習(RL)におけるトレーニング中の安全維持の問題に対処する。
探索中の効率的な進捗と安全性のトレードオフを扱う新しいアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-12-18T16:09:43Z) - Counter-terrorism in cyber-physical spaces: Best practices and
technologies from the state of the art [3.072386223958412]
近年のテロ攻撃のエスカレートに伴い、物理的な空間や都市部の保護と安全の需要が高まっている。
提案されているサイバー物理システムとスペースは、実際によりスマートな都市オブジェクトになり、積極的に警告を提供し、あらゆる脅威に対して保護される都市である。
論文 参考訳(メタデータ) (2023-11-28T18:06:30Z) - The Safety Filter: A Unified View of Safety-Critical Control in
Autonomous Systems [0.08521820162570426]
本稿では、安全フィルタのアプローチをレビューし、それらを理解し、比較し、組み合わせるための統合された技術フレームワークを提案する。
新しい統一ビューは、さまざまな異なるセーフティフィルタクラスにわたる共有モジュール構造を公開する。
それは自然に、よりスケーラブルな合成、堅牢な監視、効率的な介入に向けた将来の進歩の方向性を示唆している。
論文 参考訳(メタデータ) (2023-09-11T21:34:16Z) - Socio-Technical Security Modelling: Analysis of State-of-the-Art,
Application, and Maturity in Critical Industrial Infrastructure
Environments/Domains [0.0]
本研究は、CIに依存した産業・セクターにおける社会技術安全モデルの最先端、応用、成熟度について考察する。
論文 参考訳(メタデータ) (2023-05-09T00:34:12Z) - Safety Correction from Baseline: Towards the Risk-aware Policy in
Robotics via Dual-agent Reinforcement Learning [64.11013095004786]
本稿では,ベースラインと安全エージェントからなる二重エージェント型安全強化学習戦略を提案する。
このような分離されたフレームワークは、RLベースの制御に対して高い柔軟性、データ効率、リスク認識を可能にする。
提案手法は,難易度の高いロボットの移動・操作作業において,最先端の安全RLアルゴリズムより優れる。
論文 参考訳(メタデータ) (2022-12-14T03:11:25Z) - Evaluating Model-free Reinforcement Learning toward Safety-critical
Tasks [70.76757529955577]
本稿では、国家安全RLの観点から、この領域における先行研究を再考する。
安全最適化と安全予測を組み合わせた共同手法であるUnrolling Safety Layer (USL)を提案する。
この領域のさらなる研究を容易にするため、我々は関連するアルゴリズムを統一パイプラインで再現し、SafeRL-Kitに組み込む。
論文 参考訳(メタデータ) (2022-12-12T06:30:17Z) - Security and Safety Aspects of AI in Industry Applications [0.0]
今後5~10年で業界に影響を及ぼすであろう機械学習の安全性とセキュリティの領域における課題を要約する。
安全およびセキュリティ関連ドメインの根底にある問題の報告、例えば、敵攻撃はアーリーアダプターを不安定にしている。
現実の応用可能性の問題は、これらの技術を適用するリスクを評価することにある。
論文 参考訳(メタデータ) (2022-07-16T16:41:00Z) - Voluntary safety commitments provide an escape from over-regulation in
AI development [8.131948859165432]
この研究は、ピアまたは機関による制裁による自発的なコミットメントが、社会的に有益な結果をもたらすことを初めて明らかにしている。
結果は、倫理的で責任あるAI技術開発プロセスを保証することを目的としたガバナンスと規制ポリシーの設計に直接関係しています。
論文 参考訳(メタデータ) (2021-04-08T12:54:56Z) - Trustworthy AI Inference Systems: An Industry Research View [58.000323504158054]
我々は、信頼できるAI推論システムの設計、展開、運用にアプローチするための業界調査ビューを提供する。
信頼された実行環境を用いたAIシステムの機会と課題を強調します。
我々は,産業,アカデミック,政府研究者のグローバルな集団的注意を必要とする,さらなる発展の分野を概説する。
論文 参考訳(メタデータ) (2020-08-10T23:05:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。