論文の概要: Infusion of Blockchain to Establish Trustworthiness in AI Supported Software Evolution: A Systematic Literature Review
- arxiv url: http://arxiv.org/abs/2601.20918v2
- Date: Mon, 02 Feb 2026 12:08:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 15:03:50.697124
- Title: Infusion of Blockchain to Establish Trustworthiness in AI Supported Software Evolution: A Systematic Literature Review
- Title(参考訳): ソフトウェア進化をサポートするAIにおける信頼性を確立するためにブロックチェーンを注入する: 体系的な文献レビュー
- Authors: Mohammad Naserameri, Juergen Rilling,
- Abstract要約: ほとんどの研究は、ソフトウェアエンジニアリング(SE)にAIを統合することに焦点を当てている。
我々のレビューでは、AI支援SEタスクの信頼性、透明性、説明責任を強化するブロックチェーンベースのアプローチを探求する6つの最近の研究を取り上げている。
将来的な作業は、信頼性があり、セキュアで、準拠したAI駆動のSEエコシステムを実現するために、測定可能な、再現可能な信頼フレームワークを開発する必要がある。
- 参考スコア(独自算出の注目度): 0.3437656066916039
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Context: Blockchain and AI are increasingly explored to enhance trustworthiness in software engineering (SE), particularly in supporting software evolution tasks. Method: We conducted a systematic literature review (SLR) using a predefined protocol with clear eligibility criteria to ensure transparency, reproducibility, and minimized bias, synthesizing research on blockchain-enabled trust in AI-driven SE tools and processes. Results: Most studies focus on integrating AI in SE, with only 31% explicitly addressing trustworthiness. Our review highlights six recent studies exploring blockchain-based approaches to reinforce reliability, transparency, and accountability in AI-assisted SE tasks. Conclusion: Blockchain enhances trust by ensuring data immutability, model transparency, and lifecycle accountability, including federated learning with blockchain consensus and private data verification. However, inconsistent definitions of trust and limited real-world testing remain major challenges. Future work must develop measurable, reproducible trust frameworks to enable reliable, secure, and compliant AI-driven SE ecosystems, including applications involving large language models.
- Abstract(参考訳): コンテキスト: ブロックチェーンとAIは、特にソフトウェア進化タスクのサポートにおいて、ソフトウェアエンジニアリング(SE)における信頼性を高めるために、ますます研究されている。
方法: 透明性, 再現性, バイアスを最小限に抑えるために, 明確な適性基準を持つ事前定義されたプロトコルを用いて, 系統的な文献レビュー(SLR)を行い, AI駆動型SEツールとプロセスに対するブロックチェーン対応信頼の研究を合成した。
結果: ほとんどの研究は、AIをSEに統合することに重点を置いています。
我々のレビューでは、AI支援SEタスクの信頼性、透明性、説明責任を強化するブロックチェーンベースのアプローチを探求する6つの最近の研究を取り上げている。
結論:ブロックチェーンは、ブロックチェーンコンセンサスとプライベートデータ検証を備えたフェデレーション学習を含む、データの不変性、モデル透過性、ライフサイクル説明責任を保証することによって、信頼性を高める。
しかし、信頼と制限された実世界のテストという矛盾した定義は大きな課題である。
将来的な作業は、大規模言語モデルを含むアプリケーションを含む信頼性、セキュア、コンプライアンスを備えたAI駆動のSEエコシステムを実現するために、測定可能な、再現可能な信頼フレームワークを開発する必要がある。
関連論文リスト
- Zero-Trust Foundation Models: A New Paradigm for Secure and Collaborative Artificial Intelligence for Internet of Things [61.43014629640404]
Zero-Trust Foundation Models (ZTFM)は、ゼロトラストセキュリティの原則をIoT(Internet of Things)システムの基盤モデル(FM)のライフサイクルに組み込む。
ZTFMは、分散、異質、潜在的に敵対的なIoT環境にわたって、セキュアでプライバシ保護のAIを可能にする。
論文 参考訳(メタデータ) (2025-05-26T06:44:31Z) - Enhancing Trust in AI Marketplaces: Evaluating On-Chain Verification of Personalized AI models using zk-SNARKs [8.458944388986067]
本稿では、分散環境におけるパーソナライズされたAIモデルの検証という課題に対処する。
本稿では,ゼロ知識簡潔な知識の非対話的議論(zk-SNARK)をChainlink分散オラクルと統合する新しいフレームワークを提案する。
この結果から, 検証時間の平均は233.63秒, 検証時間は61.50秒であった。
論文 参考訳(メタデータ) (2025-04-07T07:38:29Z) - Blockchain As a Platform For Artificial Intelligence (AI) Transparency [0.0]
AI意思決定における"ブラックボックス"問題は、ステークホルダーの成果を理解し、信頼し、検証する能力を制限します。
本稿では、意思決定のトレーサビリティ、証明データ、モデル説明責任を改善するために、ブロックチェーンとAIの統合について検討する。
ブロックチェーンは、AIシステムが説明責任を持ち、倫理的であり、規制基準に準拠していることを保証する技術である可能性を示唆している。
論文 参考訳(メタデータ) (2025-03-07T01:57:26Z) - SoK: Decentralized AI (DeAI) [4.651101982820699]
ブロックチェーンベースのDeAIソリューションのためのSoK(Systematization of Knowledge)を提案する。
この分類に基づいて、我々はDeAIプロトコルの展望を明らかにするための構造化された方法を提供する。
我々は、ブロックチェーン機能がAIプロセスのセキュリティ、透明性、信頼性の向上にどのように貢献するかを調査する。
論文 参考訳(メタデータ) (2024-11-26T14:28:25Z) - Meta-Sealing: A Revolutionizing Integrity Assurance Protocol for Transparent, Tamper-Proof, and Trustworthy AI System [0.0]
この研究は、AIシステムの整合性検証を根本的に変更する暗号フレームワークであるMeta-Sealingを紹介する。
このフレームワークは、高度な暗号と分散検証を組み合わせることで、数学的厳密さと計算効率の両方を達成する、暗黙の保証を提供する。
論文 参考訳(メタデータ) (2024-10-31T15:31:22Z) - Auditing and Generating Synthetic Data with Controllable Trust Trade-offs [54.262044436203965]
合成データセットとAIモデルを包括的に評価する総合監査フレームワークを導入する。
バイアスや差別の防止、ソースデータへの忠実性の確保、実用性、堅牢性、プライバシ保護などに焦点を当てている。
多様なユースケースにまたがる様々な生成モデルを監査することにより,フレームワークの有効性を実証する。
論文 参考訳(メタデータ) (2023-04-21T09:03:18Z) - Trustworthy AI [75.99046162669997]
入力データの小さな敵対的変化への脆さ、決定の説明能力、トレーニングデータのバイアスに対処する能力は、最も顕著な制限である。
我々は,AIシステムに対するユーザおよび公的な信頼を高める上での6つの重要な問題に対処するために,信頼に値するAIに関するチュートリアルを提案する。
論文 参考訳(メタデータ) (2020-11-02T20:04:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。