論文の概要: Human-Certified Module Repositories for the AI Age
- arxiv url: http://arxiv.org/abs/2603.02512v1
- Date: Tue, 03 Mar 2026 01:46:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-04 21:38:10.597995
- Title: Human-Certified Module Repositories for the AI Age
- Title(参考訳): AI時代の人間認定モジュールリポジトリ
- Authors: Szilárd Enyedi,
- Abstract要約: 信頼性のあるソフトウェアを構築するための新しいアーキテクチャモデルとして,Human-Certified Module Repositories (HCMR)が導入されている。
HCMRは、人間の監視と自動分析を融合して、モジュールを認証し、人間とAIエージェントの両方による安全で予測可能なアセンブリをサポートする。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Human-Certified Module Repositories (HCMRs) are introduced in this work as a new architectural model for constructing trustworthy software in the era of AI-assisted development. As large language models increasingly participate in code generation, configuration synthesis, and multi-component integration, the reliability of AI-assembled systems will depend critically on the trustworthiness of the building blocks they use. Today's software supply-chain incidents and modular development ecosystems highlight the risks of relying on components with unclear provenance, insufficient review, or unpredictable composition behavior. We argue that future AI-driven development workflows require repositories of reusable modules that are curated, security-reviewed, provenance-rich, and equipped with explicit interface contracts. To this end, we propose HCMRs, a framework that blends human oversight with automated analysis to certify modules and support safe, predictable assembly by both humans and AI agents. We present a reference architecture for HCMRs, outline a certification and provenance workflow, analyze threat surfaces relevant to modular ecosystems, and extract lessons from recent failures. We further discuss implications for governance, scalability, and AI accountability, positioning HCMRs as a foundational substrate for reliable and auditable AI-constructed software systems.
- Abstract(参考訳): 人間認定モジュールリポジトリ(Human-Certified Module Repositories、HCMR)は、AI支援開発時代の信頼できるソフトウェアを構築するための新しいアーキテクチャモデルである。
大規模言語モデルがコード生成、構成合成、マルチコンポーネント統合にますます参加するにつれて、AIで組み立てられたシステムの信頼性は、使用するビルディングブロックの信頼性に大きく依存する。
今日のソフトウェアサプライチェーンのインシデントとモジュール化された開発エコシステムは、明確な証明、不十分なレビュー、予測不可能な構成行動を持つコンポーネントに依存するリスクを浮き彫りにしている。
将来のAI駆動開発ワークフローには、再利用可能なモジュールのリポジトリが必要である、と私たちは主張する。
この目的のために我々は,人間の監視と自動解析を融合したHCMRを提案し,モジュールの認証と,人間とAIエージェントによる安全で予測可能なアセンブリをサポートする。
HCMRの参照アーキテクチャ、認証と証明ワークフローの概要、モジュールエコシステムに関連する脅威面の分析、最近の障害からの教訓の抽出について述べる。
さらに、HCMRを信頼性と監査性を備えたAI構築ソフトウェアシステムの基本基盤として位置づけ、ガバナンス、スケーラビリティ、AI説明責任への影響について論じる。
関連論文リスト
- Engineering AI Agents for Clinical Workflows: A Case Study in Architecture,MLOps, and Governance [0.21748200848556345]
我々は、ヒューマン・イン・ザ・ループ(Human-in-the-Loop)ガバナンスモデルが、単に安全チェックとしてだけでなく、継続的な改善のための重要なイベント駆動データソースとして技術的に統合されていることを示す。
我々は、このプラットフォームをリファレンスアーキテクチャとして提示し、メンテナンス可能でスケーラブルで説明可能なAI対応システムを高レベルなドメインで構築するエンジニアに実践的な教訓を提供する。
論文 参考訳(メタデータ) (2026-01-31T14:33:57Z) - An Empirical Study on Remote Code Execution in Machine Learning Model Hosting Ecosystems [4.409447722044799]
モデルローディング中の信頼できないコードの実行は、モデル共有プラットフォームに対するセキュリティ上の懸念である。
5つの主要なモデル共有プラットフォームにわたるカスタムモデルローディングプラクティスに関する、最初の大規模な実証的研究を行います。
論文 参考訳(メタデータ) (2026-01-20T17:13:42Z) - Advances and Frontiers of LLM-based Issue Resolution in Software Engineering: A Comprehensive Survey [59.3507264893654]
課題解決は、現実世界の開発に不可欠な複雑なソフトウェアエンジニアリングタスクです。
SWE-benchのようなベンチマークでは、このタスクは大規模言語モデルでは極めて困難であることが判明した。
本稿では,この新興領域を体系的に調査する。
論文 参考訳(メタデータ) (2026-01-15T18:55:03Z) - AI Bill of Materials and Beyond: Systematizing Security Assurance through the AI Risk Scanning (AIRS) Framework [31.261980405052938]
人工知能(AI)システムの保証は、ソフトウェアサプライチェーンセキュリティ、敵機械学習、ガバナンスドキュメントに分散している。
本稿では,AI保証の運用を目的とした脅威モデルに基づくエビデンス発生フレームワークであるAI Risk Scanning(AIRS)フレームワークを紹介する。
論文 参考訳(メタデータ) (2025-11-16T16:10:38Z) - A Survey of Vibe Coding with Large Language Models [93.88284590533242]
視覚符号化(Vibe Coding)は、開発者が成果観察を通じてAI生成の実装を検証する開発手法である。
変革の可能性にもかかわらず、この創発的パラダイムの有効性は未解明のままである。
この調査は、大規模な言語モデルによるVibe Codingの総合的かつ体系的なレビューを初めて提供する。
論文 参考訳(メタデータ) (2025-10-14T11:26:56Z) - TAIBOM: Bringing Trustworthiness to AI-Enabled Systems [0.23332469289621785]
透明性とトレーサビリティを高めるために、SBOM(Software Bills of Materials)が重要になっている。
現在のフレームワークは、AIシステムのユニークな特徴を捉えていない。
我々は、SBOMの原則をAIドメインに拡張する新しいフレームワークであるTAIBOM(Trusted AI Bill of Materials)を紹介する。
論文 参考訳(メタデータ) (2025-10-02T16:17:07Z) - A Comprehensive Survey of Self-Evolving AI Agents: A New Paradigm Bridging Foundation Models and Lifelong Agentic Systems [53.37728204835912]
既存のAIシステムは、デプロイ後も静的な手作業による構成に依存している。
近年,インタラクションデータと環境フィードバックに基づいてエージェントシステムを自動拡張するエージェント進化手法が研究されている。
この調査は、自己進化型AIエージェントの体系的な理解を研究者や実践者に提供することを目的としている。
論文 参考訳(メタデータ) (2025-08-10T16:07:32Z) - Cognitive Kernel-Pro: A Framework for Deep Research Agents and Agent Foundation Models Training [67.895981259683]
汎用AIエージェントは、次世代人工知能の基礎となるフレームワークとして、ますます認識されている。
現在のエージェントシステムはクローズドソースか、さまざまな有料APIやプロプライエタリなツールに大きく依存している。
我々は,完全オープンソースかつ(最大限に)フリーなマルチモジュールエージェントフレームワークであるCognitive Kernel-Proを提案する。
論文 参考訳(メタデータ) (2025-08-01T08:11:31Z) - Deep Research Agents: A Systematic Examination And Roadmap [109.53237992384872]
Deep Research (DR) エージェントは複雑な多ターン情報研究タスクに取り組むように設計されている。
本稿では,DRエージェントを構成する基礎技術とアーキテクチャコンポーネントの詳細な分析を行う。
論文 参考訳(メタデータ) (2025-06-22T16:52:48Z) - Vibe Coding vs. Agentic Coding: Fundamentals and Practical Implications of Agentic AI [0.36868085124383626]
レビューでは、AI支援ソフトウェア開発の新たなパラダイムとして、バイブコーディングとエージェントコーディングの2つを包括的に分析している。
Vibeのコーディングは、インプットベースで対話的なインタラクションを通じて、直感的で、ループ内の人間間インタラクションを強調する。
エージェントコーディングは、最小限の介入でタスクを計画、実行、テスト、反復できる目標駆動エージェントを通じて、自律的なソフトウェア開発を可能にする。
論文 参考訳(メタデータ) (2025-05-26T03:00:21Z) - Towards an Interface Description Template for AI-enabled Systems [77.34726150561087]
再利用(Reuse)は、システムアーキテクチャを既存のコンポーネントでインスタンス化しようとする、一般的なシステムアーキテクチャのアプローチである。
現在、コンポーネントが当初目的としていたものと異なるシステムで運用する可搬性を評価するために必要な情報の選択をガイドするフレームワークは存在しない。
我々は、AI対応コンポーネントの主情報をキャプチャするインターフェイス記述テンプレートの確立に向けて、現在進行中の作業について述べる。
論文 参考訳(メタデータ) (2020-07-13T20:30:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。