論文の概要: The Expert Validation Framework (EVF): Enabling Domain Expert Control in AI Engineering
- arxiv url: http://arxiv.org/abs/2601.12327v1
- Date: Sun, 18 Jan 2026 09:20:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 22:47:22.577629
- Title: The Expert Validation Framework (EVF): Enabling Domain Expert Control in AI Engineering
- Title(参考訳): エキスパート検証フレームワーク(EVF) - AIエンジニアリングにおけるドメインエキスパート制御の実現
- Authors: Lucas Gren, Felix Dobslaw,
- Abstract要約: 我々は、GenAIコンポーネントを使ったソフトウェア構築の中心にドメインエキスパートを置くエキスパート検証フレームワークを提示する。
我々のフレームワークは、厳格で専門家主導の方法論を確立することによって、AI能力と組織的信頼の致命的なギャップに対処します。
- 参考スコア(独自算出の注目度): 3.5880535198436156
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Generative AI (GenAI) systems promise to transform knowledge work by automating a range of tasks, yet their deployment in enterprise settings remains hindered by the lack of systematic quality assurance mechanisms. We present an Expert Validation Framework that places domain experts at the center of building software with GenAI components, enabling them to maintain authoritative control over system behavior through structured specification, testing, validation, and continuous monitoring processes. Our framework addresses the critical gap between AI capabilities and organizational trust by establishing a rigorous, expert-driven methodology for ensuring quality across diverse GenAI applications. Through a four-stage implementation process encompassing specification, system creation, validation, and production monitoring, the framework enables organizations to leverage GenAI capabilities while maintaining expert oversight and quality standards.
- Abstract(参考訳): ジェネレーティブAI(GenAI)システムは、さまざまなタスクを自動化することで知識作業の変革を約束するが、企業環境への展開は、体系的な品質保証機構の欠如によって妨げられている。
我々は、GenAIコンポーネントを使ったソフトウェア構築の中心にドメインエキスパートを配置し、構造化された仕様、テスト、検証、継続的な監視プロセスを通じて、システムの振る舞いに対する権威的な制御を維持できるようにするエキスパート検証フレームワークを提案する。
我々のフレームワークは、さまざまなGenAIアプリケーションにまたがる品質を保証するための厳格で専門家主導の方法論を確立することによって、AI能力と組織的信頼の致命的なギャップに対処します。
仕様、システム生成、検証、運用監視を含む4段階の実装プロセスを通じて、このフレームワークは、専門家の監視と品質基準を維持しながら、GenAI機能を活用可能にする。
関連論文リスト
- Trustworthy Orchestration Artificial Intelligence by the Ten Criteria with Control-Plane Governance [1.9691447018712314]
本稿では,信頼に値するオーケストレーションAIの10基準について述べる。
人間の入力、セマンティックコヒーレンス、監査、証明の整合性を統合されたコントロール・パネルアーキテクチャに統合する。
論文 参考訳(メタデータ) (2025-12-11T05:49:26Z) - Organizational Adaptation to Generative AI in Cybersecurity: A Systematic Review [0.0]
本研究は、サイバーセキュリティ組織が脅威モデリングフレームワークと運用プロセスをどのように適応させ、生成的人工知能統合に対処するかを検討するために、体系的な文書分析と比較ケーススタディ手法を用いている。
この研究は、セキュリティアプリケーションのための大規模言語モデル統合、リスク検出と応答自動化のためのGenAIフレームワーク、脅威ハンティングのためのAI/ML統合の3つの主要な適応パターンを特定している。
成熟したセキュリティインフラストラクチャを持つ組織、特に金融と重要なインフラストラクチャ部門は、構造化ガバナンスアプローチ、専用のAIチーム、堅牢なインシデント対応プロセスを通じて、より高い準備性を示す。
論文 参考訳(メタデータ) (2025-05-31T18:16:11Z) - Engineering Risk-Aware, Security-by-Design Frameworks for Assurance of Large-Scale Autonomous AI Models [0.0]
本稿では,大規模自律型AIシステムを対象とした企業レベルのリスク認識型セキュリティ・バイ・デザイン手法を提案する。
敵的および運用的ストレス下でのモデル動作の証明可能な保証を提供する統一パイプラインについて詳述する。
国家安全保障、オープンソースモデルガバナンス、産業自動化におけるケーススタディは、脆弱性とコンプライアンスのオーバーヘッドの計測可能な削減を実証している。
論文 参考訳(メタデータ) (2025-05-09T20:14:53Z) - Enterprise Architecture as a Dynamic Capability for Scalable and Sustainable Generative AI adoption: Bridging Innovation and Governance in Large Organisations [55.2480439325792]
生成人工知能(Generative Artificial Intelligence)は、イノベーションを促進し、多くの産業におけるガバナンスを再形成する可能性を持つ強力な新技術である。
しかし、テクノロジの複雑さ、ガバナンスのギャップ、リソースのミスアライメントなど、GenAIをスケールする上で大きな課題に直面している。
本稿では、大企業におけるGenAI導入の複雑な要件をエンタープライズアーキテクチャ管理が満たす方法について検討する。
論文 参考訳(メタデータ) (2025-05-09T07:41:33Z) - A Survey on (M)LLM-Based GUI Agents [62.57899977018417]
グラフィカルユーザインタフェース (GUI) エージェントは、人間とコンピュータのインタラクションにおいて、トランスフォーメーションパラダイムとして登場した。
大規模言語モデルとマルチモーダル学習の最近の進歩は、デスクトップ、モバイル、Webプラットフォーム全体でGUI自動化に革命をもたらした。
本調査では, 正確な要素位置決定, 効果的な知識検索, 長期計画, 安全に配慮した実行制御など, 重要な技術的課題を明らかにする。
論文 参考訳(メタデータ) (2025-03-27T17:58:31Z) - Reliability, Resilience and Human Factors Engineering for Trustworthy AI Systems [6.120331132009475]
私たちは、確立した信頼性とレジリエンスエンジニアリングの原則をAIシステムに統合するフレームワークを提供しています。
本稿では,AIシステムの性能管理と障害の防止,あるいは効率よく復旧する統合フレームワークを提案する。
当社のフレームワークを,OpenAIなどのプラットフォームからのシステムステータスデータを用いて,現実的なAIシステムに適用し,その実用性を示す。
論文 参考訳(メタデータ) (2024-11-13T19:16:44Z) - A General Framework for Verification and Control of Dynamical Models via Certificate Synthesis [54.959571890098786]
システム仕様を符号化し、対応する証明書を定義するためのフレームワークを提供する。
コントローラと証明書を形式的に合成する自動化手法を提案する。
我々のアプローチは、ニューラルネットワークの柔軟性を利用して、制御のための安全な学習の幅広い分野に寄与する。
論文 参考訳(メタデータ) (2023-09-12T09:37:26Z) - Trustworthy Artificial Intelligence and Process Mining: Challenges and
Opportunities [0.8602553195689513]
プロセスマイニングは、AIコンプライアンスプロセスの実行に事実に基づく可視性を得るために有用なフレームワークを提供することができることを示す。
AI規制コンプライアンスプロセスの不確実性を分析し、修正し、監視する自動化アプローチを提供する。
論文 参考訳(メタデータ) (2021-10-06T12:50:47Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。