論文の概要: TAIBOM: Bringing Trustworthiness to AI-Enabled Systems
- arxiv url: http://arxiv.org/abs/2510.02169v1
- Date: Thu, 02 Oct 2025 16:17:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-03 16:59:21.206335
- Title: TAIBOM: Bringing Trustworthiness to AI-Enabled Systems
- Title(参考訳): TAIBOM:AIで実現可能なシステムに信頼性をもたらす
- Authors: Vadim Safronov, Anthony McCaigue, Nicholas Allott, Andrew Martin,
- Abstract要約: 透明性とトレーサビリティを高めるために、SBOM(Software Bills of Materials)が重要になっている。
現在のフレームワークは、AIシステムのユニークな特徴を捉えていない。
我々は、SBOMの原則をAIドメインに拡張する新しいフレームワークであるTAIBOM(Trusted AI Bill of Materials)を紹介する。
- 参考スコア(独自算出の注目度): 0.23332469289621785
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The growing integration of open-source software and AI-driven technologies has introduced new layers of complexity into the software supply chain, challenging existing methods for dependency management and system assurance. While Software Bills of Materials (SBOMs) have become critical for enhancing transparency and traceability, current frameworks fall short in capturing the unique characteristics of AI systems -- namely, their dynamic, data-driven nature and the loosely coupled dependencies across datasets, models, and software components. These challenges are compounded by fragmented governance structures and the lack of robust tools for ensuring integrity, trust, and compliance in AI-enabled environments. In this paper, we introduce Trusted AI Bill of Materials (TAIBOM) -- a novel framework extending SBOM principles to the AI domain. TAIBOM provides (i) a structured dependency model tailored for AI components, (ii) mechanisms for propagating integrity statements across heterogeneous AI pipelines, and (iii) a trust attestation process for verifying component provenance. We demonstrate how TAIBOM supports assurance, security, and compliance across AI workflows, highlighting its advantages over existing standards such as SPDX and CycloneDX. This work lays the foundation for trustworthy and verifiable AI systems through structured software transparency.
- Abstract(参考訳): オープンソースソフトウェアとAI駆動技術の統合が拡大し、ソフトウェアサプライチェーンに新たな複雑なレイヤを導入し、依存性管理とシステム保証のための既存の手法に挑戦した。
Software Bills of Materials(SBOM)は透明性とトレーサビリティを高めるために重要になっているが、現在のフレームワークでは、AIシステムのユニークな特徴、すなわち、その動的でデータ駆動的な性質と、データセット、モデル、ソフトウェアコンポーネント間の疎結合な依存関係を捉えていない。
これらの課題は、断片化されたガバナンス構造と、AI対応環境における整合性、信頼、コンプライアンスを保証する堅牢なツールの欠如によって複雑化されている。
本稿では、SBOMの原則をAIドメインに拡張する新しいフレームワークであるTAIBOM(Trusted AI Bill of Materials)を紹介する。
TAIBOM
i)AIコンポーネントに適した構造化依存モデル。
二 異種AIパイプライン間の整合性ステートメントの伝播機構及び
三 部品証明の検証のための信託証明の方法
我々は、AIワークフロー間の保証、セキュリティ、コンプライアンスをサポートする方法を示し、SPDXやCycloneDXといった既存の標準に対するアドバンテージを強調した。
この研究は、構造化されたソフトウェア透過性を通じて、信頼できる検証可能なAIシステムの基礎を築いた。
関連論文リスト
- Rethinking Autonomy: Preventing Failures in AI-Driven Software Engineering [1.6766200616088744]
SAFE-AI Frameworkは、安全性、監査可能性、フィードバック、説明可能性を強調した総合的なアプローチである。
我々は、リスク評価と監視を導くために、提案的、生成的、自律的、破壊的なアクションを分類する、AI行動の新しい分類法を導入する。
この記事では、EU AI ActやカナダのAIDAといった新たな規則に沿って、ソフトウェアエンジニアリングにおける責任あるAI統合のためのロードマップを提供する。
論文 参考訳(メタデータ) (2025-08-15T22:13:54Z) - Rethinking Data Protection in the (Generative) Artificial Intelligence Era [138.07763415496288]
現代の(生産的な)AIモデルやシステムに生じる多様な保護ニーズを捉える4段階の分類法を提案する。
当社のフレームワークは、データユーティリティとコントロールのトレードオフに関する構造化された理解を提供し、AIパイプライン全体にわたっています。
論文 参考訳(メタデータ) (2025-07-03T02:45:51Z) - Zero-Trust Foundation Models: A New Paradigm for Secure and Collaborative Artificial Intelligence for Internet of Things [61.43014629640404]
Zero-Trust Foundation Models (ZTFM)は、ゼロトラストセキュリティの原則をIoT(Internet of Things)システムの基盤モデル(FM)のライフサイクルに組み込む。
ZTFMは、分散、異質、潜在的に敵対的なIoT環境にわたって、セキュアでプライバシ保護のAIを可能にする。
論文 参考訳(メタデータ) (2025-05-26T06:44:31Z) - Meta-Sealing: A Revolutionizing Integrity Assurance Protocol for Transparent, Tamper-Proof, and Trustworthy AI System [0.0]
この研究は、AIシステムの整合性検証を根本的に変更する暗号フレームワークであるMeta-Sealingを紹介する。
このフレームワークは、高度な暗号と分散検証を組み合わせることで、数学的厳密さと計算効率の両方を達成する、暗黙の保証を提供する。
論文 参考訳(メタデータ) (2024-10-31T15:31:22Z) - Towards a Responsible AI Metrics Catalogue: A Collection of Metrics for
AI Accountability [28.67753149592534]
本研究は,包括的メトリクスカタログへの取り組みを導入することで,説明責任のギャップを埋めるものである。
我々のカタログは、手続き的整合性を支えるプロセスメトリクス、必要なツールやフレームワークを提供するリソースメトリクス、AIシステムのアウトプットを反映する製品メトリクスを記述しています。
論文 参考訳(メタデータ) (2023-11-22T04:43:16Z) - Trust in Software Supply Chains: Blockchain-Enabled SBOM and the AIBOM
Future [28.67753149592534]
本研究では、SBOM共有のためのブロックチェーンを活用したアーキテクチャを導入し、検証可能な認証情報を活用して、選択的な開示を可能にする。
本稿では、AIシステムを含むSBOMの限界を広げ、AI Bill of Materials(AIBOM)という用語を創出する。
論文 参考訳(メタデータ) (2023-07-05T07:56:48Z) - AI Maintenance: A Robustness Perspective [91.28724422822003]
我々は、AIライフサイクルにおけるロバストネスの課題を強調し、自動車のメンテナンスに類似させることで、AIのメンテナンスを動機付ける。
本稿では,ロバストネスリスクの検出と軽減を目的としたAIモデル検査フレームワークを提案する。
我々のAIメンテナンスの提案は、AIライフサイクル全体を通して堅牢性評価、状態追跡、リスクスキャン、モデル硬化、規制を促進する。
論文 参考訳(メタデータ) (2023-01-08T15:02:38Z) - Trustworthy AI [75.99046162669997]
入力データの小さな敵対的変化への脆さ、決定の説明能力、トレーニングデータのバイアスに対処する能力は、最も顕著な制限である。
我々は,AIシステムに対するユーザおよび公的な信頼を高める上での6つの重要な問題に対処するために,信頼に値するAIに関するチュートリアルを提案する。
論文 参考訳(メタデータ) (2020-11-02T20:04:18Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。