論文の概要: Exploiting AI for Attacks: On the Interplay between Adversarial AI and Offensive AI
- arxiv url: http://arxiv.org/abs/2506.12519v1
- Date: Sat, 14 Jun 2025 14:21:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-17 17:28:46.405866
- Title: Exploiting AI for Attacks: On the Interplay between Adversarial AI and Offensive AI
- Title(参考訳): 攻撃のためのAIの爆発: 敵AIと攻撃AIの相互作用について
- Authors: Saskia Laura Schröer, Luca Pajola, Alberto Castagnaro, Giovanni Apruzzese, Mauro Conti,
- Abstract要約: 攻撃対象としてのAI(Adversarial AI')と、攻撃対象に対する攻撃を開始する手段としてのAI(Offensive AI')
この記事では、AIに関連する2つの脅威と、それら間の相互作用について説明する。
- 参考スコア(独自算出の注目度): 18.178555463870214
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: As Artificial Intelligence (AI) continues to evolve, it has transitioned from a research-focused discipline to a widely adopted technology, enabling intelligent solutions across various sectors. In security, AI's role in strengthening organizational resilience has been studied for over two decades. While much attention has focused on AI's constructive applications, the increasing maturity and integration of AI have also exposed its darker potentials. This article explores two emerging AI-related threats and the interplay between them: AI as a target of attacks (`Adversarial AI') and AI as a means to launch attacks on any target (`Offensive AI') -- potentially even on another AI. By cutting through the confusion and explaining these threats in plain terms, we introduce the complex and often misunderstood interplay between Adversarial AI and Offensive AI, offering a clear and accessible introduction to the challenges posed by these threats.
- Abstract(参考訳): 人工知能(AI)は進化を続けており、研究中心の分野から広く採用されている技術へと移行し、様々な分野におけるインテリジェントなソリューションを可能にしている。
セキュリティにおいて、組織のレジリエンスを強化するAIの役割は、20年以上にわたって研究されてきた。
AIのコンストラクティブなアプリケーションに多くの注意が向けられているが、AIの成熟度の増加と統合もまた、その暗いポテンシャルを露呈している。
攻撃のターゲットとしてのAI(Adversarial AI')と、任意のターゲット(‘Offensive AI’)に対する攻撃を開始する手段としてのAI(Offensive AI’)です。
混乱を切り抜けて、単純な言葉でこれらの脅威を説明することで、敵AIと攻撃AIの間の複雑な、しばしば誤解される相互作用を導入し、これらの脅威によって引き起こされる課題に対して明確でアクセスしやすい導入を提供します。
関連論文リスト
- Designing AI-Enabled Countermeasures to Cognitive Warfare [0.0]
ソーシャルメディアプラットフォーム上での外国情報操作は、民主主義社会に重大なリスクをもたらす。
人工知能(AI)の台頭により、この脅威は強化され、潜在的に圧倒的な人間の防御者となる可能性がある。
本稿では,認知戦争に対するAI対応対策の可能性を提案する。
論文 参考訳(メタデータ) (2025-04-14T11:36:03Z) - Superintelligence Strategy: Expert Version [64.7113737051525]
AI開発を不安定にすることで、大国間の対立の可能性が高まる可能性がある。
スーパーインテリジェンス — ほぼすべての認知タスクにおいて、AIが人間よりもはるかに優れている — が、AI研究者によって期待されている。
本稿では,相互保証型AI誤動作の概念を紹介する。
論文 参考訳(メタデータ) (2025-03-07T17:53:24Z) - A Survey on Offensive AI Within Cybersecurity [1.8206461789819075]
攻撃的AIに関する調査論文は、AIシステムに対する攻撃および使用に関する様々な側面を包括的にカバーする。
消費者、企業、公共のデジタルインフラストラクチャなど、さまざまな分野における攻撃的なAIプラクティスの影響を掘り下げる。
この論文では、敵対的な機械学習、AIモデルに対する攻撃、インフラストラクチャ、インターフェース、および情報収集、ソーシャルエンジニアリング、兵器化されたAIといった攻撃的テクニックについて検討する。
論文 参考訳(メタデータ) (2024-09-26T17:36:22Z) - Views on AI aren't binary -- they're plural [0.10241134756773229]
単純なバイナリはAI談話の正確なモデルではない、と私たちは主張する。
私たちは、AI開発とガバナンスに取り組んでいる人々の広いコミュニティにおいて、個人がus-vs-themの衝突の発生を避けるためにどのように役立つかを具体的に提案します。
論文 参考訳(メタデータ) (2023-12-21T17:50:06Z) - A Red Teaming Framework for Securing AI in Maritime Autonomous Systems [0.0]
海上自律システムのAIセキュリティを評価するための,最初のレッドチームフレームワークを提案する。
このフレームワークはマルチパートのチェックリストであり、異なるシステムや要件に合わせて調整できる。
私たちはこのフレームワークが、現実の海上自律システムAI内の多数の脆弱性を明らかにするために、レッドチームにとって非常に効果的であることを実証しています。
論文 参考訳(メタデータ) (2023-12-08T14:59:07Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。