論文の概要: Embodied AI: Emerging Risks and Opportunities for Policy Action
- arxiv url: http://arxiv.org/abs/2509.00117v2
- Date: Wed, 03 Sep 2025 17:55:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 15:17:03.093784
- Title: Embodied AI: Emerging Risks and Opportunities for Policy Action
- Title(参考訳): Embodied AI: 新たなリスクとオポチュニティ
- Authors: Jared Perlo, Alexander Robey, Fazl Barez, Luciano Floridi, Jakob Mökander,
- Abstract要約: EAI(Embodied AI)システムは、物理的な世界で存在し、そこから学び、推論し、行動することができる。
EAIシステムには、悪意のある使用による身体的被害、大量監視、経済的・社会的破壊など、重大なリスクが伴う。
- 参考スコア(独自算出の注目度): 46.48780452120922
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The field of embodied AI (EAI) is rapidly advancing. Unlike virtual AI, EAI systems can exist in, learn from, reason about, and act in the physical world. With recent advances in AI models and hardware, EAI systems are becoming increasingly capable across wider operational domains. While EAI systems can offer many benefits, they also pose significant risks, including physical harm from malicious use, mass surveillance, as well as economic and societal disruption. These risks require urgent attention from policymakers, as existing policies governing industrial robots and autonomous vehicles are insufficient to address the full range of concerns EAI systems present. To help address this issue, this paper makes three contributions. First, we provide a taxonomy of the physical, informational, economic, and social risks EAI systems pose. Second, we analyze policies in the US, EU, and UK to assess how existing frameworks address these risks and to identify critical gaps. We conclude by offering policy recommendations for the safe and beneficial deployment of EAI systems, such as mandatory testing and certification schemes, clarified liability frameworks, and strategies to manage EAI's potentially transformative economic and societal impacts.
- Abstract(参考訳): エンボディドAI(EAI)の分野は急速に進歩している。
仮想AIとは異なり、EAIシステムは物理的な世界で存在し、そこから学び、推論し、行動することができる。
AIモデルとハードウェアの最近の進歩により、EAIシステムはより広い運用領域にわたって、ますます能力を高めている。
EAIシステムには多くのメリットがあるが、悪意のある使用による物理的損害、大量監視、経済的・社会的破壊など、重大なリスクも伴う。
これらのリスクは、産業用ロボットや自動運転車を規制する既存の政策が、現在のEAIシステムの全範囲に対処するには不十分であるため、政策立案者から緊急の注意が必要である。
この問題に対処するために,本稿では3つのコントリビューションを行う。
まず、EAIシステムが提供する物理的、情報的、経済的、社会的リスクの分類を提供する。
第2に、米国、EU、英国における政策を分析し、既存のフレームワークがこれらのリスクにどのように対処するかを評価し、重大なギャップを特定する。
我々は、EAIシステムの安全で有益な展開のための政策勧告、例えば、強制試験及び認定制度、明確化責任枠組み、そして、EAIの潜在的変革的経済・社会的な影響を管理するための戦略を提供することで締めくくります。
関連論文リスト
- AI threats to national security can be countered through an incident regime [55.2480439325792]
我々は、AIシステムからの潜在的な国家安全保障脅威に対抗することを目的とした、法的に義務付けられたポストデプロイAIインシデントシステムを提案する。
提案したAIインシデント体制は,3段階に分けられる。第1フェーズは,‘AIインシデント’とみなすような,新たな運用方法を中心に展開される。
第2フェーズと第3フェーズでは、AIプロバイダが政府機関にインシデントを通知し、政府機関がAIプロバイダのセキュリティおよび安全手順の修正に関与するべきだ、と説明されている。
論文 参考訳(メタデータ) (2025-03-25T17:51:50Z) - In-House Evaluation Is Not Enough: Towards Robust Third-Party Flaw Disclosure for General-Purpose AI [93.33036653316591]
我々はシステムの安全性を高めるために3つの介入を要求します。
まず、標準化されたAI欠陥レポートと研究者へのエンゲージメントのルールを用いることを提案する。
第2に,GPAIシステムプロバイダが広視野欠陥開示プログラムを採用することを提案する。
第3に,欠陥報告の分布を調整するための改良されたインフラの開発を提唱する。
論文 参考訳(メタデータ) (2025-03-21T05:09:46Z) - Position: Mind the Gap-the Growing Disconnect Between Established Vulnerability Disclosure and AI Security [56.219994752894294]
我々は、AIセキュリティレポートに既存のプロセスを適用することは、AIシステムの特徴的な特徴に対する根本的な欠点のために失敗する運命にあると主張している。
これらの欠点に対処する私たちの提案に基づき、AIセキュリティレポートへのアプローチと、新たなAIパラダイムであるAIエージェントが、AIセキュリティインシデント報告の進展をさらに強化する方法について論じる。
論文 参考訳(メタデータ) (2024-12-19T13:50:26Z) - Considerations Influencing Offense-Defense Dynamics From Artificial Intelligence [0.0]
AIは防御能力を向上するだけでなく、悪意ある搾取と大規模な社会的危害のための道も提示する。
本稿では、AIシステムが主に脅威を生じているか、社会に保護的利益をもたらすかに影響を及ぼす主要な要因をマップし、検証するための分類法を提案する。
論文 参考訳(メタデータ) (2024-12-05T10:05:53Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - AI Hazard Management: A framework for the systematic management of root
causes for AI risks [0.0]
本稿ではAI Hazard Management(AIHM)フレームワークを紹介する。
AIのハザードを体系的に識別し、評価し、治療するための構造化されたプロセスを提供する。
総合的な最先端分析からAIハザードリストを構築する。
論文 参考訳(メタデータ) (2023-10-25T15:55:50Z) - A Brief Overview of AI Governance for Responsible Machine Learning
Systems [3.222802562733787]
このポジションペーパーは、AIの責任ある使用を監督するように設計されたフレームワークである、AIガバナンスの簡単な紹介を提案する。
AIの確率的性質のため、それに関連するリスクは従来の技術よりもはるかに大きい。
論文 参考訳(メタデータ) (2022-11-21T23:48:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。