論文の概要: AIBoMGen: Generating an AI Bill of Materials for Secure, Transparent, and Compliant Model Training
- arxiv url: http://arxiv.org/abs/2601.05703v1
- Date: Fri, 09 Jan 2026 10:46:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-12 17:41:49.946158
- Title: AIBoMGen: Generating an AI Bill of Materials for Secure, Transparent, and Compliant Model Training
- Title(参考訳): AIBoMGen:セキュア、透明、コンプライアンスモデルトレーニングのための素材のAI法案の作成
- Authors: Wiebe Vandendriessche, Jordi Thijsman, Laurens D'hooge, Bruno Volckaert, Merlijn Sebrechts,
- Abstract要約: AI Bill of Materials(AIBOM)は、トレーニングされたAIモデルとその環境の標準化された検証可能な記録として紹介されている。
私たちの概念実証プラットフォームであるAIBoMGenは、トレーニング中にデータセット、モデルメタデータ、環境の詳細をキャプチャすることで、署名されたAIBOMの生成を自動化する。
- 参考スコア(独自算出の注目度): 1.2520011735093362
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The rapid adoption of complex AI systems has outpaced the development of tools to ensure their transparency, security, and regulatory compliance. In this paper, the AI Bill of Materials (AIBOM), an extension of the Software Bill of Materials (SBOM), is introduced as a standardized, verifiable record of trained AI models and their environments. Our proof-of-concept platform, AIBoMGen, automates the generation of signed AIBOMs by capturing datasets, model metadata, and environment details during training. The training platform acts as a neutral, third-party observer and root of trust. It enforces verifiable AIBOM creation for every job. The system uses cryptographic hashing, digital signatures, and in-toto attestations to ensure integrity and protect against threats such as artifact tampering by dishonest model creators. Our evaluation demonstrates that AIBoMGen reliably detects unauthorized modifications to all artifacts and can generate AIBOMs with negligible performance overhead. These results highlight the potential of AIBoMGen as a foundational step toward building secure and transparent AI ecosystems, enabling compliance with regulatory frameworks like the EUs AI Act.
- Abstract(参考訳): 複雑なAIシステムの急速な採用により、透明性、セキュリティ、規制コンプライアンスを保証するツールの開発が加速した。
本稿では,SBOM(Software Bill of Materials)を拡張したAI Bill of Materials(AIBOM)を,トレーニング済みAIモデルとその環境の標準化,検証可能な記録として紹介する。
私たちの概念実証プラットフォームであるAIBoMGenは、トレーニング中にデータセット、モデルメタデータ、環境の詳細をキャプチャすることで、署名されたAIBOMの生成を自動化する。
トレーニングプラットフォームは中立的でサードパーティのオブザーバーであり、信頼の根源として機能する。
あらゆる仕事に対して検証可能なAIBOM作成を強制する。
このシステムは、暗号ハッシュ、デジタルシグネチャ、およびイン・ツー・イン・トゥ・証明を使用して、不正直なモデル作成者によるアーティファクトの改ざんなどの脅威に対して整合性を確保し、保護する。
評価の結果、AIBoMGenは、すべてのアーティファクトに対する不正な修正を確実に検出し、信頼できない性能のオーバーヘッドでAIBOMを生成できることが示されている。
これらの結果は、セキュアで透明なAIエコシステムを構築するための基本的なステップとして、AIBoMGenの可能性を浮き彫りにしている。
関連論文リスト
- CaMeLs Can Use Computers Too: System-level Security for Computer Use Agents [60.98294016925157]
AIエージェントは、悪意のあるコンテンツがエージェントの行動をハイジャックして認証情報を盗んだり、金銭的損失を引き起こすような、インジェクション攻撃に弱い。
CUAのためのシングルショットプランニングでは、信頼できるプランナーが、潜在的に悪意のあるコンテンツを観察する前に、条件付きブランチで完全な実行グラフを生成する。
このアーキテクチャ分離は命令インジェクションを効果的に防止するが、ブランチステアリング攻撃を防ぐには追加の対策が必要であることを示す。
論文 参考訳(メタデータ) (2026-01-14T23:06:35Z) - AI Bill of Materials and Beyond: Systematizing Security Assurance through the AI Risk Scanning (AIRS) Framework [31.261980405052938]
人工知能(AI)システムの保証は、ソフトウェアサプライチェーンセキュリティ、敵機械学習、ガバナンスドキュメントに分散している。
本稿では,AI保証の運用を目的とした脅威モデルに基づくエビデンス発生フレームワークであるAI Risk Scanning(AIRS)フレームワークを紹介する。
論文 参考訳(メタデータ) (2025-11-16T16:10:38Z) - TAIBOM: Bringing Trustworthiness to AI-Enabled Systems [0.23332469289621785]
透明性とトレーサビリティを高めるために、SBOM(Software Bills of Materials)が重要になっている。
現在のフレームワークは、AIシステムのユニークな特徴を捉えていない。
我々は、SBOMの原則をAIドメインに拡張する新しいフレームワークであるTAIBOM(Trusted AI Bill of Materials)を紹介する。
論文 参考訳(メタデータ) (2025-10-02T16:17:07Z) - Agentic AI for Financial Crime Compliance [0.0]
本稿では、デジタルネイティブ金融プラットフォームにおける金融犯罪コンプライアンス(FCC)のためのエージェントAIシステムの設計と展開について述べる。
このコントリビューションには、リファレンスアーキテクチャ、現実世界のプロトタイプ、およびAgentic AIが規制下で再構成できる方法に関する洞察が含まれている。
論文 参考訳(メタデータ) (2025-09-16T14:53:51Z) - Safe and Certifiable AI Systems: Concepts, Challenges, and Lessons Learned [45.44933002008943]
この白書は、T"UV AUSTRIA Trusted AIフレームワークを提示する。
エンド・ツー・エンドの監査カタログであり、機械学習システムの評価と認定のための方法論である。
セキュアなソフトウェア開発、機能要件、倫理とデータプライバシという3つの柱の上に構築されているのは、EU AI Actの高レベルの義務を、特定かつテスト可能な基準に翻訳するものです。
論文 参考訳(メタデータ) (2025-09-08T17:52:08Z) - TechOps: Technical Documentation Templates for the AI Act [4.205946699819021]
本稿では、データ、モデル、アプリケーションの文書化のためのオープンソースのテンプレートと例を紹介する。
これらのテンプレートは、AIライフサイクル全体のシステムステータスを追跡する。
また、発見可能性とコラボレーションを促進し、リスクを低減し、AIドキュメントとガバナンスのベストプラクティスと整合させる。
論文 参考訳(メタデータ) (2025-08-12T09:58:33Z) - Rethinking Data Protection in the (Generative) Artificial Intelligence Era [138.07763415496288]
現代の(生産的な)AIモデルやシステムに生じる多様な保護ニーズを捉える4段階の分類法を提案する。
当社のフレームワークは、データユーティリティとコントロールのトレードオフに関する構造化された理解を提供し、AIパイプライン全体にわたっています。
論文 参考訳(メタデータ) (2025-07-03T02:45:51Z) - AI Model Passport: Data and System Traceability Framework for Transparent AI in Health [4.024232575199211]
本稿では,構造化および標準化されたドキュメントフレームワークであるAI Model Passportの概念を紹介する。
ライフサイクル全体にわたってAIモデルを特定し、検証し、追跡し、監視するために必要なメタデータをキャプチャする。
このフレームワークの実装は、医療画像アプリケーションのためのProCAncer-I EUプロジェクト内で開発されたMLOpsツールであるAIPassportを通じて提示される。
論文 参考訳(メタデータ) (2025-06-27T16:16:15Z) - Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - Guiding AI-Generated Digital Content with Wireless Perception [69.51950037942518]
本稿では,AIGC(AIGC)と無線認識を統合し,デジタルコンテンツ制作の質を向上させる。
このフレームワークは、単語の正確な記述が難しいユーザの姿勢を読み取るために、新しいマルチスケール認識技術を採用し、それをスケルトン画像としてAIGCモデルに送信する。
生産プロセスはAIGCモデルの制約としてユーザの姿勢を強制するため、生成されたコンテンツはユーザの要求に適合する。
論文 参考訳(メタデータ) (2023-03-26T04:39:03Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。