論文の概要: AIBoMGen: Generating an AI Bill of Materials for Secure, Transparent, and Compliant Model Training
- arxiv url: http://arxiv.org/abs/2601.05703v1
- Date: Fri, 09 Jan 2026 10:46:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-12 17:41:49.946158
- Title: AIBoMGen: Generating an AI Bill of Materials for Secure, Transparent, and Compliant Model Training
- Title(参考訳): AIBoMGen:セキュア、透明、コンプライアンスモデルトレーニングのための素材のAI法案の作成
- Authors: Wiebe Vandendriessche, Jordi Thijsman, Laurens D'hooge, Bruno Volckaert, Merlijn Sebrechts,
- Abstract要約: AI Bill of Materials(AIBOM)は、トレーニングされたAIモデルとその環境の標準化された検証可能な記録として紹介されている。
私たちの概念実証プラットフォームであるAIBoMGenは、トレーニング中にデータセット、モデルメタデータ、環境の詳細をキャプチャすることで、署名されたAIBOMの生成を自動化する。
- 参考スコア(独自算出の注目度): 1.2520011735093362
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The rapid adoption of complex AI systems has outpaced the development of tools to ensure their transparency, security, and regulatory compliance. In this paper, the AI Bill of Materials (AIBOM), an extension of the Software Bill of Materials (SBOM), is introduced as a standardized, verifiable record of trained AI models and their environments. Our proof-of-concept platform, AIBoMGen, automates the generation of signed AIBOMs by capturing datasets, model metadata, and environment details during training. The training platform acts as a neutral, third-party observer and root of trust. It enforces verifiable AIBOM creation for every job. The system uses cryptographic hashing, digital signatures, and in-toto attestations to ensure integrity and protect against threats such as artifact tampering by dishonest model creators. Our evaluation demonstrates that AIBoMGen reliably detects unauthorized modifications to all artifacts and can generate AIBOMs with negligible performance overhead. These results highlight the potential of AIBoMGen as a foundational step toward building secure and transparent AI ecosystems, enabling compliance with regulatory frameworks like the EUs AI Act.
- Abstract(参考訳): 複雑なAIシステムの急速な採用により、透明性、セキュリティ、規制コンプライアンスを保証するツールの開発が加速した。
本稿では,SBOM(Software Bill of Materials)を拡張したAI Bill of Materials(AIBOM)を,トレーニング済みAIモデルとその環境の標準化,検証可能な記録として紹介する。
私たちの概念実証プラットフォームであるAIBoMGenは、トレーニング中にデータセット、モデルメタデータ、環境の詳細をキャプチャすることで、署名されたAIBOMの生成を自動化する。
トレーニングプラットフォームは中立的でサードパーティのオブザーバーであり、信頼の根源として機能する。
あらゆる仕事に対して検証可能なAIBOM作成を強制する。
このシステムは、暗号ハッシュ、デジタルシグネチャ、およびイン・ツー・イン・トゥ・証明を使用して、不正直なモデル作成者によるアーティファクトの改ざんなどの脅威に対して整合性を確保し、保護する。
評価の結果、AIBoMGenは、すべてのアーティファクトに対する不正な修正を確実に検出し、信頼できない性能のオーバーヘッドでAIBOMを生成できることが示されている。
これらの結果は、セキュアで透明なAIエコシステムを構築するための基本的なステップとして、AIBoMGenの可能性を浮き彫りにしている。
関連論文リスト
- AI Bill of Materials and Beyond: Systematizing Security Assurance through the AI Risk Scanning (AIRS) Framework [31.261980405052938]
人工知能(AI)システムの保証は、ソフトウェアサプライチェーンセキュリティ、敵機械学習、ガバナンスドキュメントに分散している。
本稿では,AI保証の運用を目的とした脅威モデルに基づくエビデンス発生フレームワークであるAI Risk Scanning(AIRS)フレームワークを紹介する。
論文 参考訳(メタデータ) (2025-11-16T16:10:38Z) - TAIBOM: Bringing Trustworthiness to AI-Enabled Systems [0.23332469289621785]
透明性とトレーサビリティを高めるために、SBOM(Software Bills of Materials)が重要になっている。
現在のフレームワークは、AIシステムのユニークな特徴を捉えていない。
我々は、SBOMの原則をAIドメインに拡張する新しいフレームワークであるTAIBOM(Trusted AI Bill of Materials)を紹介する。
論文 参考訳(メタデータ) (2025-10-02T16:17:07Z) - Agentic AI for Financial Crime Compliance [0.0]
本稿では、デジタルネイティブ金融プラットフォームにおける金融犯罪コンプライアンス(FCC)のためのエージェントAIシステムの設計と展開について述べる。
このコントリビューションには、リファレンスアーキテクチャ、現実世界のプロトタイプ、およびAgentic AIが規制下で再構成できる方法に関する洞察が含まれている。
論文 参考訳(メタデータ) (2025-09-16T14:53:51Z) - TechOps: Technical Documentation Templates for the AI Act [4.205946699819021]
本稿では、データ、モデル、アプリケーションの文書化のためのオープンソースのテンプレートと例を紹介する。
これらのテンプレートは、AIライフサイクル全体のシステムステータスを追跡する。
また、発見可能性とコラボレーションを促進し、リスクを低減し、AIドキュメントとガバナンスのベストプラクティスと整合させる。
論文 参考訳(メタデータ) (2025-08-12T09:58:33Z) - Rethinking Data Protection in the (Generative) Artificial Intelligence Era [138.07763415496288]
現代の(生産的な)AIモデルやシステムに生じる多様な保護ニーズを捉える4段階の分類法を提案する。
当社のフレームワークは、データユーティリティとコントロールのトレードオフに関する構造化された理解を提供し、AIパイプライン全体にわたっています。
論文 参考訳(メタデータ) (2025-07-03T02:45:51Z) - AI Model Passport: Data and System Traceability Framework for Transparent AI in Health [4.024232575199211]
本稿では,構造化および標準化されたドキュメントフレームワークであるAI Model Passportの概念を紹介する。
ライフサイクル全体にわたってAIモデルを特定し、検証し、追跡し、監視するために必要なメタデータをキャプチャする。
このフレームワークの実装は、医療画像アプリケーションのためのProCAncer-I EUプロジェクト内で開発されたMLOpsツールであるAIPassportを通じて提示される。
論文 参考訳(メタデータ) (2025-06-27T16:16:15Z) - Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - Guiding AI-Generated Digital Content with Wireless Perception [69.51950037942518]
本稿では,AIGC(AIGC)と無線認識を統合し,デジタルコンテンツ制作の質を向上させる。
このフレームワークは、単語の正確な記述が難しいユーザの姿勢を読み取るために、新しいマルチスケール認識技術を採用し、それをスケルトン画像としてAIGCモデルに送信する。
生産プロセスはAIGCモデルの制約としてユーザの姿勢を強制するため、生成されたコンテンツはユーザの要求に適合する。
論文 参考訳(メタデータ) (2023-03-26T04:39:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。