論文の概要: BlackIce: A Containerized Red Teaming Toolkit for AI Security Testing
- arxiv url: http://arxiv.org/abs/2510.11823v1
- Date: Mon, 13 Oct 2025 18:20:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-15 19:02:32.057377
- Title: BlackIce: A Containerized Red Teaming Toolkit for AI Security Testing
- Title(参考訳): BlackIce: AIセキュリティテストのためのコンテナ化されたRed Teaming Toolkit
- Authors: Caelin Kaplan, Alexander Warnecke, Neil Archibald,
- Abstract要約: BlackIceは、LLM(Large Language Models)とML(Classic Machine Learning)モデルをレッドチーム化するために設計されたオープンソースのコンテナ化ツールキットである。
BlackIceは、Responsible AIとSecurityテスト用に慎重に選択された14のオープンソースツールをバンドルした、再現可能なバージョン管理Dockerイメージを提供する。
コンテナイメージのアーキテクチャ、ツールの選択に使用されるプロセス、それらがサポートする評価のタイプについて説明する。
- 参考スコア(独自算出の注目度): 42.8017483068619
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: AI models are being increasingly integrated into real-world systems, raising significant concerns about their safety and security. Consequently, AI red teaming has become essential for organizations to proactively identify and address vulnerabilities before they can be exploited by adversaries. While numerous AI red teaming tools currently exist, practitioners face challenges in selecting the most appropriate tools from a rapidly expanding landscape, as well as managing complex and frequently conflicting software dependencies across isolated projects. Given these challenges and the relatively small number of organizations with dedicated AI red teams, there is a strong need to lower barriers to entry and establish a standardized environment that simplifies the setup and execution of comprehensive AI model assessments. Inspired by Kali Linux's role in traditional penetration testing, we introduce BlackIce, an open-source containerized toolkit designed for red teaming Large Language Models (LLMs) and classical machine learning (ML) models. BlackIce provides a reproducible, version-pinned Docker image that bundles 14 carefully selected open-source tools for Responsible AI and Security testing, all accessible via a unified command-line interface. With this setup, initiating red team assessments is as straightforward as launching a container, either locally or using a cloud platform. Additionally, the image's modular architecture facilitates community-driven extensions, allowing users to easily adapt or expand the toolkit as new threats emerge. In this paper, we describe the architecture of the container image, the process used for selecting tools, and the types of evaluations they support.
- Abstract(参考訳): AIモデルは現実世界のシステムにますます統合され、その安全性とセキュリティに関する重要な懸念が持ち上がっている。
その結果、AIのレッドチーム化は、敵に悪用される前に、組織が積極的に脆弱性を特定し、対処することが不可欠になっている。
現在、多くのAIレッドチームツールが存在するが、実践者は、急速に拡大する状況から最も適切なツールを選択すること、および、孤立したプロジェクト間で複雑で頻繁に矛盾するソフトウェア依存関係を管理することの課題に直面している。
これらの課題と、専用のAIレッドチームを持つ比較的少数の組織を考えると、包括的なAIモデルアセスメントのセットアップと実行を簡略化する標準化された環境の参入と確立の障壁を低くする必要がある。
従来の浸透テストにおけるKali Linuxの役割に触発されて,LLM(Large Language Models)とML(Classic Machine Learning)モデルをレッドチーム化するために設計された,オープンソースのコンテナ化ツールキットであるBlackIceを紹介した。
BlackIceは、Responsible AIとSecurity Testingのために慎重に選択された14のオープンソースツールをバンドルする、再現可能なバージョン管理されたDockerイメージを提供する。
このセットアップにより、赤いチームのアセスメントを開始することは、ローカルまたはクラウドプラットフォームを使用して、コンテナを起動するのと同じくらい簡単になります。
さらに、画像のモジュラーアーキテクチャは、コミュニティ主導の拡張機能を促進し、新しい脅威が出現するにつれて、ユーザーがツールキットを容易に適応または拡張できる。
本稿では,コンテナイメージのアーキテクチャ,ツールの選択に使用されるプロセス,それらがサポートする評価のタイプについて述べる。
関連論文リスト
- From Firewalls to Frontiers: AI Red-Teaming is a Domain-Specific Evolution of Cyber Red-Teaming [21.957207711016384]
赤いチームは敵の攻撃をシミュレートし、防御者がシステムを守る効果的な戦略を見つけるのを助ける。
AIのレッドチーム化が、サイバーのレッドチーム化のドメイン固有の進化であると認識されれば、AIシステムはより効果的にレッドチーム化できる、と私たちは主張する。
論文 参考訳(メタデータ) (2025-09-14T19:21:58Z) - Red Teaming AI Red Teaming [9.942581294959107]
我々は、レッド・チームリングの元々の意図と、生成的AIの文脈におけるモデルレベルの欠陥の発見に焦点を合わせることには、大きなギャップがあることを論じる。
マクロレベルのシステム・レッド・チームとマイクロレベルのモデル・レッド・チームという2つのレベルで、AIシステムにおけるレッド・チーム化を運用する包括的なフレームワークを提案する。
論文 参考訳(メタデータ) (2025-07-07T23:23:40Z) - CoP: Agentic Red-teaming for Large Language Models using Composition of Principles [61.404771120828244]
本稿では,Large Language Models (LLM) のリピートプロセスを自動化するエージェントワークフローを提案する。
ヒューマンユーザは、AIエージェントへの指示として、効果的な赤チーム戦略を自動オーケストレーションし、ジェイルブレイクプロンプトを生成する、一連の赤チームの原則を提供する。
先進的なLLMに対して試験すると、CoPは新しいジェイルブレイクプロンプトを見つけ、最もよく知られているシングルターン攻撃の成功率を19.0倍に改善することで、前例のない安全リスクを明らかにしている。
論文 参考訳(メタデータ) (2025-06-01T02:18:41Z) - RedTeamLLM: an Agentic AI framework for offensive security [0.0]
我々は,ペンテストタスクの自動化のための総合的なセキュリティモデルを備えた統合アーキテクチャであるRedTeamLLMを提案し,評価する。
RedTeamLLMは3つの重要なステップに従っている。
評価は、一連のエントリーレベルの自動解決を通じて行われるが、簡単なことではなく、CTFの課題である。
論文 参考訳(メタデータ) (2025-05-11T09:19:10Z) - Control Plane as a Tool: A Scalable Design Pattern for Agentic AI Systems [2.997108944111501]
本稿では, エージェントの種類, 環境との相互作用の態様, インフラ・建築の課題を概観する。
本稿では再利用可能な設計抽象化である"Control Plane as a Tool"パターンを提案する。
このパターンは、モジュールツールのルーティングロジックをカプセル化しながら、単一のツールインターフェースをエージェントに公開することを可能にする。
論文 参考訳(メタデータ) (2025-05-11T02:58:50Z) - PyRIT: A Framework for Security Risk Identification and Red Teaming in Generative AI System [0.28924356705380033]
PyRITは、GenAIシステムにおけるレッドチーム化の取り組みを強化するために設計されたオープンソースのフレームワークである。
レッドチームでは、マルチモーダル生成AIモデルにおいて、新しい害、リスク、ジェイルブレイクを探索し、特定することができる。
本稿では,PyRITの開発と機能,および実世界のシナリオにおける実践的応用について述べる。
論文 参考訳(メタデータ) (2024-10-01T17:00:59Z) - Attack Atlas: A Practitioner's Perspective on Challenges and Pitfalls in Red Teaming GenAI [52.138044013005]
生成AI、特に大規模言語モデル(LLM)は、製品アプリケーションにますます統合される。
新たな攻撃面と脆弱性が出現し、自然言語やマルチモーダルシステムにおける敵の脅威に焦点を当てる。
レッドチーム(英語版)はこれらのシステムの弱点を積極的に識別する上で重要となり、ブルーチーム(英語版)はそのような敵の攻撃から保護する。
この研究は、生成AIシステムの保護のための学術的な洞察と実践的なセキュリティ対策のギャップを埋めることを目的としている。
論文 参考訳(メタデータ) (2024-09-23T10:18:10Z) - ROS-LLM: A ROS framework for embodied AI with task feedback and structured reasoning [74.58666091522198]
非専門家による直感的なロボットプログラミングのためのフレームワークを提案する。
ロボットオペレーティングシステム(ROS)からの自然言語のプロンプトと文脈情報を活用する
我々のシステムは,大規模言語モデル (LLM) を統合し,非専門家がチャットインタフェースを通じてシステムにタスク要求を記述できるようにする。
論文 参考訳(メタデータ) (2024-06-28T08:28:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。