論文の概要: Blockchain As a Platform For Artificial Intelligence (AI) Transparency
- arxiv url: http://arxiv.org/abs/2503.08699v1
- Date: Fri, 07 Mar 2025 01:57:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-13 15:41:00.797895
- Title: Blockchain As a Platform For Artificial Intelligence (AI) Transparency
- Title(参考訳): 人工知能(AI)の透明性のためのプラットフォームとしてのブロックチェーン
- Authors: Afroja Akther, Ayesha Arobee, Abdullah Al Adnan, Omum Auyon, ASM Johirul Islam, Farhad Akter,
- Abstract要約: AI意思決定における"ブラックボックス"問題は、ステークホルダーの成果を理解し、信頼し、検証する能力を制限します。
本稿では、意思決定のトレーサビリティ、証明データ、モデル説明責任を改善するために、ブロックチェーンとAIの統合について検討する。
ブロックチェーンは、AIシステムが説明責任を持ち、倫理的であり、規制基準に準拠していることを保証する技術である可能性を示唆している。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: As artificial intelligence (AI) systems become increasingly complex and autonomous, concerns over transparency and accountability have intensified. The "black box" problem in AI decision-making limits stakeholders' ability to understand, trust, and verify outcomes, particularly in high-stakes sectors such as healthcare, finance, and autonomous systems. Blockchain technology, with its decentralized, immutable, and transparent characteristics, presents a potential solution to enhance AI transparency and auditability. This paper explores the integration of blockchain with AI to improve decision traceability, data provenance, and model accountability. By leveraging blockchain as an immutable record-keeping system, AI decision-making can become more interpretable, fostering trust among users and regulatory compliance. However, challenges such as scalability, integration complexity, and computational overhead must be addressed to fully realize this synergy. This study discusses existing research, proposes a framework for blockchain-enhanced AI transparency, and highlights practical applications, benefits, and limitations. The findings suggest that blockchain could be a foundational technology for ensuring AI systems remain accountable, ethical, and aligned with regulatory standards.
- Abstract(参考訳): 人工知能(AI)システムがますます複雑で自律的になるにつれて、透明性と説明責任に関する懸念が高まっている。
AI意思決定における「ブラックボックス」問題は、特に医療、金融、自律システムといった高度な分野において、ステークホルダーが成果を理解し、信頼し、検証する能力を制限している。
ブロックチェーン技術は、分散化され、不変で透明な特性を持ち、AI透明性と監査性を高める潜在的なソリューションを提供する。
本稿では、意思決定のトレーサビリティ、データ証明、モデル説明責任を改善するために、ブロックチェーンとAIの統合について検討する。
ブロックチェーンを不変記録システムとして活用することにより、AI意思決定がより解釈可能になり、ユーザ間の信頼と規制コンプライアンスが促進される。
しかし、このシナジーを完全に実現するには、スケーラビリティ、統合複雑性、計算オーバーヘッドといった課題に対処する必要がある。
本研究では、既存の研究について論じ、ブロックチェーンによるAI透明性のためのフレームワークを提案し、実用的なアプリケーション、メリット、制限を強調した。
この調査結果は、ブロックチェーンがAIシステムが説明責任を持ち、倫理的であり、規制基準に沿うことを保証するための基盤技術になり得ることを示唆している。
関連論文リスト
- A Blockchain-Enabled Approach to Cross-Border Compliance and Trust [0.0]
本稿では,ブロックチェーンと分散台帳技術(DLT)を活用した,AIガバナンスの新しいアプローチを提案する。
ブロックチェーン、AI倫理、サイバーセキュリティの進歩を合成することにより、分散AIガバナンスフレームワークの包括的なロードマップを提供する。
論文 参考訳(メタデータ) (2025-01-15T22:19:34Z) - SoK: Decentralized AI (DeAI) [4.651101982820699]
ブロックチェーンベースのDeAIソリューションのためのSoK(Systematization of Knowledge)を提案する。
モデルライフサイクルに基づいて既存のDeAIプロトコルを分類する分類法を提案する。
我々は、ブロックチェーン機能がAIプロセスのセキュリティ、透明性、信頼性の向上にどのように貢献するかを調査する。
論文 参考訳(メタデータ) (2024-11-26T14:28:25Z) - Imagining and building wise machines: The centrality of AI metacognition [78.76893632793497]
AIシステムは知恵を欠いている。
AI研究はタスクレベルの戦略に焦点を当てているが、メタ認知はAIシステムでは未発達である。
メタ認知機能をAIシステムに統合することは、その堅牢性、説明可能性、協力性、安全性を高めるために不可欠である。
論文 参考訳(メタデータ) (2024-11-04T18:10:10Z) - Enhancing Data Integrity and Traceability in Industry Cyber Physical Systems (ICPS) through Blockchain Technology: A Comprehensive Approach [0.0]
本研究では,産業サイバー物理システム(ICPS)におけるデータの整合性とトレーサビリティ向上におけるブロックチェーンの可能性について検討する。
ICPSは製造業、電力網、輸送網といった重要なインフラを管理する上で重要である。
この研究は、サプライチェーン管理、品質管理、コントラクト管理、データ共有など、ICPSのさまざまなブロックチェーンアプリケーションを発掘する。
論文 参考訳(メタデータ) (2024-05-08T06:22:37Z) - opp/ai: Optimistic Privacy-Preserving AI on Blockchain [0.0]
これらの問題の先駆的なソリューションとして、最適化プライバシ保護AI(opp/ai)フレームワークが導入されている。
このフレームワークはプライバシーのためのZero-Knowledge Machine Learning (zkML)と効率のためのOptimistic Machine Learning (opML)を統合している。
そこで本研究では,zkMLのプライバシ機能に関するopp/aiフレームワークを提案するとともに,さまざまなシナリオにおけるフレームワークのパフォーマンスと適応性を評価する。
論文 参考訳(メタデータ) (2024-02-22T22:54:41Z) - Generative AI-enabled Blockchain Networks: Fundamentals, Applications,
and Case Study [73.87110604150315]
Generative Artificial Intelligence(GAI)は、ブロックチェーン技術の課題に対処するための有望なソリューションとして登場した。
本稿では、まずGAI技術を紹介し、そのアプリケーションの概要を説明し、GAIをブロックチェーンに統合するための既存のソリューションについて議論する。
論文 参考訳(メタデータ) (2024-01-28T10:46:17Z) - Mathematical Algorithm Design for Deep Learning under Societal and
Judicial Constraints: The Algorithmic Transparency Requirement [65.26723285209853]
計算モデルにおける透過的な実装が実現可能かどうかを分析するための枠組みを導出する。
以上の結果から,Blum-Shub-Smale Machinesは,逆問題に対する信頼性の高い解法を確立できる可能性が示唆された。
論文 参考訳(メタデータ) (2024-01-18T15:32:38Z) - Path To Gain Functional Transparency In Artificial Intelligence With Meaningful Explainability [0.0]
AIシステムがますます高度化するにつれて、透明性と説明可能性の確保が重要になる。
透明なシステムにおけるユーザ中心のコンプライアンス・バイ・デザイン透過性の設計を提案する。
AIシステムにおける透明性に関連する課題を包括的に理解することで、説明責任、信頼性、社会的価値に整合したAIシステムの開発を促進することを目指している。
論文 参考訳(メタデータ) (2023-10-13T04:25:30Z) - AI Maintenance: A Robustness Perspective [91.28724422822003]
我々は、AIライフサイクルにおけるロバストネスの課題を強調し、自動車のメンテナンスに類似させることで、AIのメンテナンスを動機付ける。
本稿では,ロバストネスリスクの検出と軽減を目的としたAIモデル検査フレームワークを提案する。
我々のAIメンテナンスの提案は、AIライフサイクル全体を通して堅牢性評価、状態追跡、リスクスキャン、モデル硬化、規制を促進する。
論文 参考訳(メタデータ) (2023-01-08T15:02:38Z) - Trustworthy AI [75.99046162669997]
入力データの小さな敵対的変化への脆さ、決定の説明能力、トレーニングデータのバイアスに対処する能力は、最も顕著な制限である。
我々は,AIシステムに対するユーザおよび公的な信頼を高める上での6つの重要な問題に対処するために,信頼に値するAIに関するチュートリアルを提案する。
論文 参考訳(メタデータ) (2020-11-02T20:04:18Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。