論文の概要: Agentic AI and the Cyber Arms Race
- arxiv url: http://arxiv.org/abs/2503.04760v1
- Date: Mon, 10 Feb 2025 16:06:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-16 10:47:26.775003
- Title: Agentic AI and the Cyber Arms Race
- Title(参考訳): エージェントAIとサイバーアームレース
- Authors: Sean Oesch, Jack Hutchins, Phillipe Austria, Amul Chaulagain,
- Abstract要約: エージェントAIは、アタッカーやディフェンダーがAIエージェントを利用して人間を強化し、共通のタスクを自動化することによって、サイバーセキュリティの世界を変えつつある。
本稿では,エージェントAIがより強力になるにつれて,サイバー戦争とグローバル政治がもたらす意味を考察し,現在最も豊富なアクターにのみ利用可能な能力の広範な普及を可能にする。
- 参考スコア(独自算出の注目度): 3.0198881680567635
- License:
- Abstract: Agentic AI is shifting the cybersecurity landscape as attackers and defenders leverage AI agents to augment humans and automate common tasks. In this article, we examine the implications for cyber warfare and global politics as Agentic AI becomes more powerful and enables the broad proliferation of capabilities only available to the most well resourced actors today.
- Abstract(参考訳): エージェントAIは、アタッカーやディフェンダーがAIエージェントを利用して人間を強化し、共通のタスクを自動化することによって、サイバーセキュリティの世界を変えつつある。
本稿では,エージェントAIがより強力になるにつれて,サイバー戦争とグローバル政治がもたらす意味を考察し,現在最も豊富なアクターにのみ利用可能な能力の広範な普及を可能にする。
関連論文リスト
- Fully Autonomous AI Agents Should Not be Developed [58.88624302082713]
本稿では,完全自律型AIエージェントを開発すべきではないと主張している。
この立場を支持するために、我々は、従来の科学文献と現在の製品マーケティングから、異なるAIエージェントレベルを規定するために構築する。
分析の結果,システムの自律性によって人へのリスクが増大することが明らかとなった。
論文 参考訳(メタデータ) (2025-02-04T19:00:06Z) - Considerations Influencing Offense-Defense Dynamics From Artificial Intelligence [0.0]
AIは防御能力を向上するだけでなく、悪意ある搾取と大規模な社会的危害のための道も提示する。
本稿では、AIシステムが主に脅威を生じているか、社会に保護的利益をもたらすかに影響を及ぼす主要な要因をマップし、検証するための分類法を提案する。
論文 参考訳(メタデータ) (2024-12-05T10:05:53Z) - Multi-Agent Actor-Critics in Autonomous Cyber Defense [0.5261718469769447]
マルチエージェントディープ強化学習(MADRL)は、自律型サイバーオペレーションの有効性とレジリエンスを高めるための有望なアプローチである。
シミュレーションサイバー攻撃シナリオにおいて,各エージェントが迅速に学習し,MADRLを用いて自律的に脅威に対処できることを実証する。
論文 参考訳(メタデータ) (2024-10-11T15:15:09Z) - AI-Powered Autonomous Weapons Risk Geopolitical Instability and Threaten AI Research [6.96356867602455]
自律兵器システム(AWS)開発における機械学習の最近の採用は、地政学的な安定性とAI研究におけるアイデアの自由交換に深刻なリスクをもたらす、と我々は主張する。
MLはすでに、多くの戦場で、人間の兵士のためのAWSの代替を可能にしている。
さらに、AWSの軍事的価値は、AIによる軍備競争の投機と、AI研究に対する国家安全保障上の制限の誤った適用を提起する。
論文 参考訳(メタデータ) (2024-05-03T05:19:45Z) - Position Paper: Agent AI Towards a Holistic Intelligence [53.35971598180146]
エージェントAI - 大きな基盤モデルをエージェントアクションに統合する具体的システム。
本稿では,エージェント・ファウンデーション・モデル(エージェント・ファウンデーション・モデル)を提案する。
論文 参考訳(メタデータ) (2024-02-28T16:09:56Z) - Killer Apps: Low-Speed, Large-Scale AI Weapons [2.2899177316144943]
人工知能(AI)と機械学習(ML)の進歩は、戦争と安全保障における新たな課題と機会を提示する。
本稿では,AI兵器の概念,その展開,検出,潜在的な対策について検討する。
論文 参考訳(メタデータ) (2024-01-14T12:09:40Z) - A Red Teaming Framework for Securing AI in Maritime Autonomous Systems [0.0]
海上自律システムのAIセキュリティを評価するための,最初のレッドチームフレームワークを提案する。
このフレームワークはマルチパートのチェックリストであり、異なるシステムや要件に合わせて調整できる。
私たちはこのフレームワークが、現実の海上自律システムAI内の多数の脆弱性を明らかにするために、レッドチームにとって非常に効果的であることを実証しています。
論文 参考訳(メタデータ) (2023-12-08T14:59:07Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - The Rise and Potential of Large Language Model Based Agents: A Survey [91.71061158000953]
大規模言語モデル(LLM)は、人工知能(AGI)の潜在的な火花と見なされる
まず、エージェントの概念を哲学的起源からAI開発まで追跡し、LLMがエージェントに適した基盤である理由を説明します。
単一エージェントシナリオ,マルチエージェントシナリオ,ヒューマンエージェント協調の3つの側面において,LLMベースのエージェントの広範な応用について検討する。
論文 参考訳(メタデータ) (2023-09-14T17:12:03Z) - Proceedings of the Artificial Intelligence for Cyber Security (AICS)
Workshop at AAAI 2022 [55.573187938617636]
ワークショップは、サイバーセキュリティの問題へのAIの適用に焦点を当てる。
サイバーシステムは大量のデータを生成し、これを効果的に活用することは人間の能力を超えます。
論文 参考訳(メタデータ) (2022-02-28T18:27:41Z) - The Threat of Offensive AI to Organizations [52.011307264694665]
この調査は、組織に対する攻撃的なAIの脅威を調査する。
まず、AIが敵の方法、戦略、目標、および全体的な攻撃モデルをどのように変えるかについて議論する。
そして、文献レビューを通じて、敵が攻撃を強化するために使用できる33の攻撃的AI能力を特定します。
論文 参考訳(メタデータ) (2021-06-30T01:03:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。