論文の概要: Private, Verifiable, and Auditable AI Systems
- arxiv url: http://arxiv.org/abs/2509.00085v1
- Date: Wed, 27 Aug 2025 07:08:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 15:17:03.063797
- Title: Private, Verifiable, and Auditable AI Systems
- Title(参考訳): プライベート、検証可能、そして監査可能なAIシステム
- Authors: Tobin South,
- Abstract要約: この論文は、現代のAIにおけるプライバシ、検証可能性、監査可能性の間の相互作用に対処する。
これらの要素を統合する技術的ソリューションは、AIイノベーションの責任を負う上で重要である、と氏は主張する。
- 参考スコア(独自算出の注目度): 3.745111265115901
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The growing societal reliance on artificial intelligence necessitates robust frameworks for ensuring its security, accountability, and trustworthiness. This thesis addresses the complex interplay between privacy, verifiability, and auditability in modern AI, particularly in foundation models. It argues that technical solutions that integrate these elements are critical for responsible AI innovation. Drawing from international policy contributions and technical research to identify key risks in the AI pipeline, this work introduces novel technical solutions for critical privacy and verifiability challenges. Specifically, the research introduces techniques for enabling verifiable and auditable claims about AI systems using zero-knowledge cryptography; utilizing secure multi-party computation and trusted execution environments for auditable, confidential deployment of large language models and information retrieval; and implementing enhanced delegation mechanisms, credentialing systems, and access controls to secure interactions with autonomous and multi-agent AI systems. Synthesizing these technical advancements, this dissertation presents a cohesive perspective on balancing privacy, verifiability, and auditability in foundation model-based AI systems, offering practical blueprints for system designers and informing policy discussions on AI safety and governance.
- Abstract(参考訳): 人工知能への社会的依存の高まりは、そのセキュリティ、説明責任、信頼性を保証するための堅牢なフレームワークを必要としている。
この論文は、特に基礎モデルにおいて、現代のAIにおけるプライバシ、検証可能性、監査性の間の複雑な相互作用に対処する。
これらの要素を統合する技術的ソリューションは、AIイノベーションの責任を負う上で重要である、と氏は主張する。
この研究は、国際政策のコントリビューションと技術研究から、AIパイプラインの重要なリスクを特定するために、批判的なプライバシと検証可能性に関する新たな技術的ソリューションを導入している。
具体的には、ゼロ知識暗号を用いたAIシステムに関する検証可能かつ監査可能なクレームの実現、監査可能な大規模言語モデルと情報検索のためのセキュアなマルチパーティ計算と信頼できる実行環境の利用、自律的およびマルチエージェントAIシステムとのセキュアなインタラクションのための強化されたデリゲート機構、クレデンシャルシステム、アクセス制御の実装などを紹介する。
これらの技術的進歩を合成して、この論文は、基礎モデルに基づくAIシステムにおけるプライバシ、検証可能性、監査可能性のバランスに関する密接な視点を示し、システムデザイナに実用的な青写真を提供し、AIの安全性とガバナンスに関するポリシーの議論を行う。
関連論文リスト
- Never Compromise to Vulnerabilities: A Comprehensive Survey on AI Governance [211.5823259429128]
本研究は,本質的セキュリティ,デリバティブ・セキュリティ,社会倫理の3つの柱を中心に構築された,技術的・社会的次元を統合した包括的枠組みを提案する。
我々は,(1)防衛が進化する脅威に対して失敗する一般化ギャップ,(2)現実世界のリスクを無視する不適切な評価プロトコル,(3)矛盾する監視につながる断片的な規制,の3つの課題を特定する。
私たちのフレームワークは、研究者、エンジニア、政策立案者に対して、堅牢でセキュアなだけでなく、倫理的に整合性があり、公的な信頼に値するAIシステムを開発するための実用的なガイダンスを提供します。
論文 参考訳(メタデータ) (2025-08-12T09:42:56Z) - Policy-Driven AI in Dataspaces: Taxonomy, Explainability, and Pathways for Compliant Innovation [1.6766200616088744]
本稿では、プライバシ保護とポリシー対応AI技術に関する包括的なレビューを提供する。
プライバシレベル、影響、コンプライアンスの複雑さに基づいて、これらのテクニックを分類する新しい分類法を提案する。
技術的、倫理的、規制的な観点から見れば、この研究はデータ空間において信頼性があり、効率的で、コンプライアンスのよいAIシステムを開発するための基礎となる。
論文 参考訳(メタデータ) (2025-07-26T17:07:01Z) - A New Perspective On AI Safety Through Control Theory Methodologies [16.51699616065134]
AIは新たなレベルの自律性を達成することを約束するが、安全保証の欠如によって妨げられている。
本稿では、基礎となるデータ生成プロセスの学際的解釈に基づいて、AI安全性に関する新たな視点を概説する。
新たな視点は、データコントロールとも呼ばれ、AIエンジニアリングを刺激し、既存の安全分析と保証を活用することを目的としている。
論文 参考訳(メタデータ) (2025-06-30T10:26:59Z) - Decoding the Black Box: Integrating Moral Imagination with Technical AI Governance [0.0]
我々は、防衛、金融、医療、教育といった高度な領域に展開するAI技術を規制するために設計された包括的なフレームワークを開発する。
本手法では,厳密な技術的分析,定量的リスク評価,規範的評価を併用して,システム的脆弱性を暴露する。
論文 参考訳(メタデータ) (2025-03-09T03:11:32Z) - Compliance of AI Systems [0.0]
本稿では、EUのAI法に焦点をあてて、関連する法律に対するAIシステムのコンプライアンスを体系的に検討する。
この分析は、エッジデバイスに関連する多くの課題を強調した。
データセットのコンプライアンスの重要性は、AIシステムの信頼性、透明性、説明可能性を保証するための基盤として強調されている。
論文 参考訳(メタデータ) (2025-03-07T16:53:36Z) - Trustworthy AI Inference Systems: An Industry Research View [58.000323504158054]
我々は、信頼できるAI推論システムの設計、展開、運用にアプローチするための業界調査ビューを提供する。
信頼された実行環境を用いたAIシステムの機会と課題を強調します。
我々は,産業,アカデミック,政府研究者のグローバルな集団的注意を必要とする,さらなる発展の分野を概説する。
論文 参考訳(メタデータ) (2020-08-10T23:05:55Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z) - AAAI FSS-19: Human-Centered AI: Trustworthiness of AI Models and Data
Proceedings [8.445274192818825]
予測モデルは不確実性を認識し、信頼できる予測をもたらすことが不可欠である。
このシンポジウムの焦点は、データ品質と技術的堅牢性と安全性を改善するAIシステムであった。
広く定義された領域からの提出はまた、説明可能なモデル、人間の信頼、AIの倫理的側面といった要求に対処するアプローチについても論じた。
論文 参考訳(メタデータ) (2020-01-15T15:30:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。