論文の概要: Emerging Technology and Policy Co-Design Considerations for the Safe and
Transparent Use of Small Unmanned Aerial Systems
- arxiv url: http://arxiv.org/abs/2212.02795v1
- Date: Tue, 6 Dec 2022 07:17:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 12:50:52.320736
- Title: Emerging Technology and Policy Co-Design Considerations for the Safe and
Transparent Use of Small Unmanned Aerial Systems
- Title(参考訳): 小型無人航空機システムの安全・透明化に向けた新技術と政策共同設計
- Authors: Ritwik Gupta, Alexander Bayen, Sarah Rohrschneider, Adrienne Fulk,
Andrew Reddie, Sanjit A. Seshia, Shankar Sastry, Janet Napolitano
- Abstract要約: sUASセクターで見られる急速な技術発展は、これらの機器を運用する安全で信頼できる環境を提供するための政策や規制にギャップを残している。
人的要因から自治に至るまで、我々は、sUAS産業の成長に伴う政策ギャップを減らすために、学術、商業、政府部門のパートナーによって取られる一連の措置を推奨する。
- 参考スコア(独自算出の注目度): 55.60330679737718
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The rapid technological growth observed in the sUAS sector over the past
decade has been unprecedented and has left gaps in policies and regulations to
adequately provide for a safe and trusted environment in which to operate these
devices. The Center for Security in Politics at UC Berkeley, via a two-day
workshop, analyzed these gaps by addressing the entire sUAS vertical. From
human factors to autonomy, we recommend a series of steps that can be taken by
partners in the academic, commercial, and government sectors to reduce policy
gaps introduced in the wake of the growth of the sUAS industry.
- Abstract(参考訳): 過去10年間にSUASセクターで見られた急速な技術発展は前例がなく、これらの機器を運用するための安全で信頼できる環境を適切に提供するための政策や規制にギャップを残している。
ucバークレーのcenter for security in politicsは2日間のワークショップを通じて、suasの分野全体に対処することで、これらのギャップを分析した。
人的要因から自律性まで,学術,商業,政府分野のパートナが,suas産業の成長に伴う政策格差を軽減するための一連のステップを推奨する。
関連論文リスト
- Cybersecurity in Industry 5.0: Open Challenges and Future Directions [1.6385815610837167]
業界5.0の可能性を解き放つには、堅牢なサイバーセキュリティ対策が必要だ。
本稿では,潜在的な脅威とその対策について分析する。
これは、企業が業界5.0原則を安全に採用するためのサイバーセキュリティを中心とした新しいフレームワークを開発する必要性を強調している。
論文 参考訳(メタデータ) (2024-10-12T13:56:17Z) - A Safe Harbor for AI Evaluation and Red Teaming [124.89885800509505]
一部の研究者は、そのような研究の実施や研究成果の公表が、アカウント停止や法的報復につながることを恐れている。
我々は、主要なAI開発者が法的、技術的に安全な港を提供することを約束することを提案します。
これらのコミットメントは、ジェネレーティブAIのリスクに取り組むための、より包括的で意図しないコミュニティ努力への必要なステップである、と私たちは信じています。
論文 参考訳(メタデータ) (2024-03-07T20:55:08Z) - The Security and Privacy of Mobile Edge Computing: An Artificial Intelligence Perspective [64.36680481458868]
Mobile Edge Computing (MEC)は、クラウドコンピューティングと情報技術(IT)サービスをネットワークのエッジで配信できるようにする新しいコンピューティングパラダイムである。
本稿では,人工知能(AI)の観点からMECのセキュリティとプライバシに関する調査を行う。
新たなセキュリティとプライバシの問題に加えて、AIの観点からの潜在的なソリューションにも重点を置いています。
論文 参考訳(メタデータ) (2024-01-03T07:47:22Z) - Safeguarded Progress in Reinforcement Learning: Safe Bayesian
Exploration for Control Policy Synthesis [63.532413807686524]
本稿では、強化学習(RL)におけるトレーニング中の安全維持の問題に対処する。
探索中の効率的な進捗と安全性のトレードオフを扱う新しいアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-12-18T16:09:43Z) - Counter-terrorism in cyber-physical spaces: Best practices and
technologies from the state of the art [3.072386223958412]
近年のテロ攻撃のエスカレートに伴い、物理的な空間や都市部の保護と安全の需要が高まっている。
提案されているサイバー物理システムとスペースは、実際によりスマートな都市オブジェクトになり、積極的に警告を提供し、あらゆる脅威に対して保護される都市である。
論文 参考訳(メタデータ) (2023-11-28T18:06:30Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - Socio-Technical Security Modelling: Analysis of State-of-the-Art,
Application, and Maturity in Critical Industrial Infrastructure
Environments/Domains [0.0]
本研究は、CIに依存した産業・セクターにおける社会技術安全モデルの最先端、応用、成熟度について考察する。
論文 参考訳(メタデータ) (2023-05-09T00:34:12Z) - Security and Safety Aspects of AI in Industry Applications [0.0]
今後5~10年で業界に影響を及ぼすであろう機械学習の安全性とセキュリティの領域における課題を要約する。
安全およびセキュリティ関連ドメインの根底にある問題の報告、例えば、敵攻撃はアーリーアダプターを不安定にしている。
現実の応用可能性の問題は、これらの技術を適用するリスクを評価することにある。
論文 参考訳(メタデータ) (2022-07-16T16:41:00Z) - Voluntary safety commitments provide an escape from over-regulation in
AI development [8.131948859165432]
この研究は、ピアまたは機関による制裁による自発的なコミットメントが、社会的に有益な結果をもたらすことを初めて明らかにしている。
結果は、倫理的で責任あるAI技術開発プロセスを保証することを目的としたガバナンスと規制ポリシーの設計に直接関係しています。
論文 参考訳(メタデータ) (2021-04-08T12:54:56Z) - Trustworthy AI Inference Systems: An Industry Research View [58.000323504158054]
我々は、信頼できるAI推論システムの設計、展開、運用にアプローチするための業界調査ビューを提供する。
信頼された実行環境を用いたAIシステムの機会と課題を強調します。
我々は,産業,アカデミック,政府研究者のグローバルな集団的注意を必要とする,さらなる発展の分野を概説する。
論文 参考訳(メタデータ) (2020-08-10T23:05:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。