論文の概要: AI Bill of Materials and Beyond: Systematizing Security Assurance through the AI Risk Scanning (AIRS) Framework
- arxiv url: http://arxiv.org/abs/2511.12668v1
- Date: Sun, 16 Nov 2025 16:10:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 14:36:24.437264
- Title: AI Bill of Materials and Beyond: Systematizing Security Assurance through the AI Risk Scanning (AIRS) Framework
- Title(参考訳): AI Bill of Materials and Beyond: AI Risk Scanning (AIRS)フレームワークによるセキュリティ保証の体系化
- Authors: Samuel Nathanson, Alexander Lee, Catherine Chen Kieffer, Jared Junkin, Jessica Ye, Amir Saeed, Melanie Lockhart, Russ Fink, Elisha Peterson, Lanier Watkins,
- Abstract要約: 人工知能(AI)システムの保証は、ソフトウェアサプライチェーンセキュリティ、敵機械学習、ガバナンスドキュメントに分散している。
本稿では,AI保証の運用を目的とした脅威モデルに基づくエビデンス発生フレームワークであるAI Risk Scanning(AIRS)フレームワークを紹介する。
- 参考スコア(独自算出の注目度): 31.261980405052938
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Assurance for artificial intelligence (AI) systems remains fragmented across software supply-chain security, adversarial machine learning, and governance documentation. Existing transparency mechanisms - including Model Cards, Datasheets, and Software Bills of Materials (SBOMs) - advance provenance reporting but rarely provide verifiable, machine-readable evidence of model security. This paper introduces the AI Risk Scanning (AIRS) Framework, a threat-model-based, evidence-generating framework designed to operationalize AI assurance. The AIRS Framework evolved through three progressive pilot studies - Smurf (AIBOM schema design), OPAL (operational validation), and Pilot C (AIRS) - that reframed AI documentation from descriptive disclosure toward measurable, evidence-bound verification. The framework aligns its assurance fields to the MITRE ATLAS adversarial ML taxonomy and automatically produces structured artifacts capturing model integrity, packaging and serialization safety, structural adapters, and runtime behaviors. Currently, the AIRS Framework is scoped to provide model-level assurances for LLMs, but it could be expanded to include other modalities and cover system-level threats (e.g. application-layer abuses, tool-calling). A proof-of-concept on a quantized GPT-OSS-20B model demonstrates enforcement of safe loader policies, per-shard hash verification, and contamination and backdoor probes executed under controlled runtime conditions. Comparative analysis with SBOM standards of SPDX 3.0 and CycloneDX 1.6 reveals alignment on identity and evaluation metadata, but identifies critical gaps in representing AI-specific assurance fields. The AIRS Framework thus extends SBOM practice to the AI domain by coupling threat modeling with automated, auditable evidence generation, providing a principled foundation for standardized, trustworthy, and machine-verifiable AI risk documentation.
- Abstract(参考訳): 人工知能(AI)システムの保証は、ソフトウェアサプライチェーンセキュリティ、敵機械学習、ガバナンスドキュメントに分散している。
既存の透明性メカニズム - Model Cards、Datasheets、Software Bills of Materials (SBOMs) など - は先進的な前例レポートを提供するが、モデルセキュリティの検証可能なマシン可読な証拠はめったにない。
本稿では,AI保証の運用を目的とした脅威モデルに基づくエビデンス発生フレームワークであるAI Risk Scanning(AIRS)フレームワークを紹介する。
AIRS Frameworkは、Smurf(AIBOMスキーマ設計)、OPAL(オペレーショナルバリデーション)、Pilot C(AIRS)という3つのプログレッシブなパイロット研究を通じて進化した。
このフレームワークは、その保証フィールドをMITRE ATLASの逆ML分類と一致させ、モデル整合性、パッケージングとシリアライゼーションの安全性、構造アダプタ、実行時の振る舞いをキャプチャする構造化アーティファクトを自動生成する。
現在、AIRS FrameworkはLLMのモデルレベルの保証を提供するためにスコープされているが、他のモダリティやシステムレベルの脅威(例えば、アプリケーション・レイヤの悪用、ツール呼び出しなど)をカバーするように拡張できる。
量子化GPT-OSS-20Bモデルにおける概念実証では、安全なローダポリシ、シャード毎のハッシュ検証、制御されたランタイム条件下で実行される汚染およびバックドアプローブの実施が示されている。
SPDX 3.0とCycloneDX 1.6のSBOM標準との比較分析では、アイデンティティと評価メタデータのアライメントが明らかにされているが、AI固有の保証フィールドを表現する上で重要なギャップが特定されている。
これによりAIRS Frameworkは、自動化された監査可能なエビデンス生成と脅威モデリングを結合することにより、SBOMのプラクティスをAIドメインに拡張する。
関連論文リスト
- "Show Me You Comply... Without Showing Me Anything": Zero-Knowledge Software Auditing for AI-Enabled Systems [2.2981698355892686]
本稿では,新しいMLOps検証フレームワークであるZKMLOpsを紹介する。
ZKP(Zero-Knowledge Proofs)暗号プロトコルを運用し、証明者が証明者に対して、文が真実であることを納得させることができる。
我々は、金融リスク監査における規制コンプライアンスの研究を通じて、この枠組みの実践性を評価する。
論文 参考訳(メタデータ) (2025-10-30T15:03:32Z) - TAIBOM: Bringing Trustworthiness to AI-Enabled Systems [0.23332469289621785]
透明性とトレーサビリティを高めるために、SBOM(Software Bills of Materials)が重要になっている。
現在のフレームワークは、AIシステムのユニークな特徴を捉えていない。
我々は、SBOMの原則をAIドメインに拡張する新しいフレームワークであるTAIBOM(Trusted AI Bill of Materials)を紹介する。
論文 参考訳(メタデータ) (2025-10-02T16:17:07Z) - ANNIE: Be Careful of Your Robots [48.89876809734855]
エンボディドAIシステムに対する敵の安全攻撃に関する最初の体系的研究について述べる。
すべての安全カテゴリーで攻撃の成功率は50%を超えている。
結果は、実証済みのAIシステムにおいて、これまで未調査だったが、非常に連続的な攻撃面を露呈する。
論文 参考訳(メタデータ) (2025-09-03T15:00:28Z) - Rethinking Autonomy: Preventing Failures in AI-Driven Software Engineering [1.6766200616088744]
SAFE-AI Frameworkは、安全性、監査可能性、フィードバック、説明可能性を強調した総合的なアプローチである。
我々は、リスク評価と監視を導くために、提案的、生成的、自律的、破壊的なアクションを分類する、AI行動の新しい分類法を導入する。
この記事では、EU AI ActやカナダのAIDAといった新たな規則に沿って、ソフトウェアエンジニアリングにおける責任あるAI統合のためのロードマップを提供する。
論文 参考訳(メタデータ) (2025-08-15T22:13:54Z) - Rethinking Data Protection in the (Generative) Artificial Intelligence Era [138.07763415496288]
現代の(生産的な)AIモデルやシステムに生じる多様な保護ニーズを捉える4段階の分類法を提案する。
当社のフレームワークは、データユーティリティとコントロールのトレードオフに関する構造化された理解を提供し、AIパイプライン全体にわたっています。
論文 参考訳(メタデータ) (2025-07-03T02:45:51Z) - A Rusty Link in the AI Supply Chain: Detecting Evil Configurations in Model Repositories [9.095642871258455]
本研究は,Hugging Face上での悪意のある構成に関する最初の包括的研究である。
特に、元々モデルの設定を意図した設定ファイルは、不正なコードを実行するために利用することができる。
論文 参考訳(メタデータ) (2025-05-02T07:16:20Z) - Computational Safety for Generative AI: A Signal Processing Perspective [65.268245109828]
計算安全性は、GenAIにおける安全性の定量的評価、定式化、研究を可能にする数学的枠組みである。
ジェイルブレイクによる悪意のあるプロンプトを検出するために, 感度解析と損失景観解析がいかに有効かを示す。
我々は、AIの安全性における信号処理の鍵となる研究課題、機会、そして重要な役割について論じる。
論文 参考訳(メタデータ) (2025-02-18T02:26:50Z) - PVF (Parameter Vulnerability Factor): A Scalable Metric for Understanding AI Vulnerability Against SDCs in Model Parameters [7.652441604508354]
脆弱性因子(Vulnerability Factor, PVF)は、AIモデル脆弱性のパラメータ破損に対する定量化を目標とする指標である。
PVFは、フォールトプロテクションとパフォーマンス/効率のトレードオフのバランスをとる上で、AIハードウェアデザイナに重要な洞察を提供することができる。
推論中にPVFを3種類のタスク/モデルに適用するためのユースケースとして、DLRM、ビジョン分類(CNN)、テキスト分類(BERT)を挙げる。
論文 参考訳(メタデータ) (2024-05-02T21:23:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。