論文の概要: Security-First AI: Foundations for Robust and Trustworthy Systems
- arxiv url: http://arxiv.org/abs/2504.16110v1
- Date: Thu, 17 Apr 2025 22:53:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:52.834035
- Title: Security-First AI: Foundations for Robust and Trustworthy Systems
- Title(参考訳): セキュリティファーストAI:ロバストで信頼できるシステムの基礎
- Authors: Krti Tallam,
- Abstract要約: この原稿は、AIセキュリティは基礎的なレイヤとして優先順位付けされなければならないことを示唆している。
私たちは、信頼できるレジリエントなAIシステムを実現するために、セキュリティ優先のアプローチを主張します。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The conversation around artificial intelligence (AI) often focuses on safety, transparency, accountability, alignment, and responsibility. However, AI security (i.e., the safeguarding of data, models, and pipelines from adversarial manipulation) underpins all of these efforts. This manuscript posits that AI security must be prioritized as a foundational layer. We present a hierarchical view of AI challenges, distinguishing security from safety, and argue for a security-first approach to enable trustworthy and resilient AI systems. We discuss core threat models, key attack vectors, and emerging defense mechanisms, concluding that a metric-driven approach to AI security is essential for robust AI safety, transparency, and accountability.
- Abstract(参考訳): 人工知能(AI)に関する会話は、しばしば安全性、透明性、説明責任、アライメント、責任に焦点を当てている。
しかし、AIセキュリティ(すなわち、敵対的な操作からデータ、モデル、パイプラインを保護すること)は、これらすべての取り組みを支えている。
この原稿は、AIセキュリティは基礎的なレイヤとして優先順位付けされなければならないことを示唆している。
我々は、AIの課題に関する階層的な見解を示し、セキュリティと安全性を区別し、信頼できるレジリエントなAIシステムを実現するための、セキュリティ優先のアプローチを主張します。
我々は、AIセキュリティに対するメトリック駆動アプローチが、堅牢なAI安全性、透明性、説明責任に不可欠である、と結論付けながら、コア脅威モデル、キーアタックベクター、新興防衛メカニズムについて議論する。
関連論文リスト
- Generative AI-Empowered Secure Communications in Space-Air-Ground Integrated Networks: A Survey and Tutorial [107.26005706569498]
宇宙航空地上統合ネットワーク(SAGIN)は、その特性上、前例のないセキュリティ上の課題に直面している。
Generative AI(GAI)は、データを合成し、セマンティクスを理解し、自律的な決定を行うことで、SAGINセキュリティを保護できる変革的アプローチである。
論文 参考訳(メタデータ) (2025-08-04T01:42:57Z) - Securing AI Systems: A Guide to Known Attacks and Impacts [0.0]
本稿では,予測型および生成型AIシステムに特有の敵攻撃の概要について述べる。
我々は11種類の主要な攻撃タイプを特定し、その影響に攻撃テクニックを明示的にリンクする。
我々は、AI固有のリスクを認識し、効果的な防御を実装するための基礎知識を、研究者、開発者、セキュリティ実践者、および政策立案者に提供することを目的としています。
論文 参考訳(メタデータ) (2025-06-29T15:32:03Z) - The Singapore Consensus on Global AI Safety Research Priorities [128.58674892183657]
2025年シンガポールAI会議(SCAI: International Scientific Exchange on AI Safety)は、この分野での研究を支援することを目的としている。
ヨシュア・ベンジオが議長を務める国際AI安全レポート(AI Safety Report)は、33の政府によって支援されている。
レポートは、AI安全研究ドメインを3つのタイプに分類する。信頼に値するAIシステム(開発)作成の課題、リスク評価の課題(評価)、デプロイメント後の監視と介入の課題(会議)。
論文 参考訳(メタデータ) (2025-06-25T17:59:50Z) - AI Safety vs. AI Security: Demystifying the Distinction and Boundaries [37.57137473409321]
しばしば「AI安全」と「AI安全」が使われ、時には相互に使用され、概念的に混乱する。
本稿では,AIセーフティとAIセキュリティの正確な研究境界の明確化と記述を目的とした。
論文 参考訳(メタデータ) (2025-06-21T18:36:03Z) - Offensive Security for AI Systems: Concepts, Practices, and Applications [0.0]
従来の防御策は、AI駆動技術に直面するユニークで進化する脅威に対して、しばしば不足する。
本稿では、AIライフサイクル全体を通して脆弱性を明らかにするために、積極的な脅威シミュレーションと敵対的なテストを強調する。
論文 参考訳(メタデータ) (2025-05-09T18:58:56Z) - A Framework for the Assurance of AI-Enabled Systems [0.0]
本稿では,AIシステムのリスク管理と保証のためのクレームベースのフレームワークを提案する。
論文のコントリビューションは、AI保証のためのフレームワークプロセス、関連する定義のセット、AI保証における重要な考慮事項に関する議論である。
論文 参考訳(メタデータ) (2025-04-03T13:44:01Z) - AI threats to national security can be countered through an incident regime [55.2480439325792]
我々は、AIシステムからの潜在的な国家安全保障脅威に対抗することを目的とした、法的に義務付けられたポストデプロイAIインシデントシステムを提案する。
提案したAIインシデント体制は,3段階に分けられる。第1フェーズは,‘AIインシデント’とみなすような,新たな運用方法を中心に展開される。
第2フェーズと第3フェーズでは、AIプロバイダが政府機関にインシデントを通知し、政府機関がAIプロバイダのセキュリティおよび安全手順の修正に関与するべきだ、と説明されている。
論文 参考訳(メタデータ) (2025-03-25T17:51:50Z) - AISafetyLab: A Comprehensive Framework for AI Safety Evaluation and Improvement [73.0700818105842]
我々は、AI安全のための代表的攻撃、防衛、評価方法論を統合する統合されたフレームワークとツールキットであるAISafetyLabを紹介する。
AISafetyLabには直感的なインターフェースがあり、開発者はシームレスにさまざまなテクニックを適用できる。
我々はヴィクナに関する実証的研究を行い、異なる攻撃戦略と防衛戦略を分析し、それらの比較効果に関する貴重な洞察を提供する。
論文 参考訳(メタデータ) (2025-02-24T02:11:52Z) - AI Safety for Everyone [3.440579243843689]
AIの安全性に関する最近の議論と研究は、AIの安全性と高度なAIシステムからの現実的リスクとの深いつながりを強調している。
このフレーミングは、AIの安全性にコミットしているが、異なる角度から分野にアプローチする研究者や実践者を排除する可能性がある。
私たちは、現在のAIシステムに対する即時的で実践的な懸念に対処する、数多くの具体的な安全作業を見つけました。
論文 参考訳(メタデータ) (2025-02-13T13:04:59Z) - Position: A taxonomy for reporting and describing AI security incidents [57.98317583163334]
AIシステムのセキュリティインシデントを記述し報告するためには、具体的が必要である、と我々は主張する。
非AIセキュリティまたは汎用AI安全インシデントレポートの既存のフレームワークは、AIセキュリティの特定の特性をキャプチャするには不十分である。
論文 参考訳(メタデータ) (2024-12-19T13:50:26Z) - The Game-Theoretic Symbiosis of Trust and AI in Networked Systems [13.343937277604892]
この章では、人工知能(AI)とネットワークシステムにおける信頼の共生関係について論じる。
我々は、AIによって動的に管理される信頼が、いかにレジリエントなセキュリティエコシステムを形成するかを検討する。
論文 参考訳(メタデータ) (2024-11-19T21:04:53Z) - Trustworthy, Responsible, and Safe AI: A Comprehensive Architectural Framework for AI Safety with Challenges and Mitigations [15.946242944119385]
AI安全性は、AIシステムの安全な採用とデプロイにおいて重要な領域である。
私たちの目標は、AI安全研究の進歩を促進し、究極的には、デジタルトランスフォーメーションに対する人々の信頼を高めることです。
論文 参考訳(メタデータ) (2024-08-23T09:33:48Z) - Safetywashing: Do AI Safety Benchmarks Actually Measure Safety Progress? [59.96471873997733]
我々は、より有意義な安全指標を開発するための実証的な基盤を提案し、機械学習研究の文脈でAIの安全性を定義する。
我々は、AI安全研究のためのより厳格なフレームワークを提供し、安全性評価の科学を前進させ、測定可能な進歩への道筋を明らかにすることを目指している。
論文 参考訳(メタデータ) (2024-07-31T17:59:24Z) - AI Risk Management Should Incorporate Both Safety and Security [185.68738503122114]
AIリスクマネジメントの利害関係者は、安全とセキュリティの間のニュアンス、シナジー、相互作用を意識すべきである、と私たちは主張する。
我々は、AIの安全性とAIのセキュリティの違いと相互作用を明らかにするために、統一された参照フレームワークを導入する。
論文 参考訳(メタデータ) (2024-05-29T21:00:47Z) - Towards Guaranteed Safe AI: A Framework for Ensuring Robust and Reliable AI Systems [88.80306881112313]
我々は、AI安全性に対する一連のアプローチを紹介し、定義する。
これらのアプローチの中核的な特徴は、高保証の定量的安全性保証を備えたAIシステムを作ることである。
これら3つのコアコンポーネントをそれぞれ作成するためのアプローチを概説し、主な技術的課題を説明し、それらに対する潜在的なソリューションをいくつか提案します。
論文 参考訳(メタデータ) (2024-05-10T17:38:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。