論文の概要: DeepBridge: A Unified and Production-Ready Framework for Multi-Dimensional Machine Learning Validation
- arxiv url: http://arxiv.org/abs/2512.19744v1
- Date: Thu, 18 Dec 2025 01:32:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-24 19:17:49.619618
- Title: DeepBridge: A Unified and Production-Ready Framework for Multi-Dimensional Machine Learning Validation
- Title(参考訳): DeepBridge: 多次元機械学習検証のための統一的で生産可能なフレームワーク
- Authors: Gustavo Coelho Haase, Paulo Henrique Dourado da Silva,
- Abstract要約: DeepBridgeは80Kline Pythonライブラリで、バリデーション、自動コンプライアンス検証知識蒸留、合成データ生成を統合する。
DeepBridge: 検証時間を89%削減する(断片化されたツールで150分に対して150分)。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We present DeepBridge, an 80K-line Python library that unifies multi-dimensional validation, automatic compliance verification, knowledge distillation, and synthetic data generation. DeepBridge offers: (i) 5 validation suites (fairness with 15 metrics, robustness with weakness detection, uncertainty via conformal prediction, resilience with 5 drift types, hyperparameter sensitivity), (ii) automatic EEOC/ECOA/GDPR verification, (iii) multi-format reporting system (interactive/static HTML, PDF, JSON), (iv) HPM-KD framework for knowledge distillation with meta-learning, and (v) scalable synthetic data generation via Dask. Through 6 case studies (credit scoring, hiring, healthcare, mortgage, insurance, fraud) we demonstrate that DeepBridge: reduces validation time by 89% (17 min vs. 150 min with fragmented tools), automatically detects fairness violations with complete coverage (10/10 features vs. 2/10 from existing tools), generates audit-ready reports in minutes. HPM-KD demonstrates consistent superiority across compression ratios 2.3--7x (CIFAR100): +1.00--2.04pp vs. Direct Training (p<0.05), confirming that Knowledge Distillation is effective at larger teacher-student gaps. Usability study with 20 participants shows SUS score 87.5 (top 10%, ``excellent''), 95% success rate, and low cognitive load (NASA-TLX 28/100). DeepBridge is open-source under MIT license at https://github.com/deepbridge/deepbridge, with complete documentation at https://deepbridge.readthedocs.io
- Abstract(参考訳): 我々は,多次元検証,自動コンプライアンス検証,知識蒸留,合成データ生成を統合化した80KラインPythonライブラリであるDeepBridgeを提案する。
DeepBridgeは、
(i)検証スイート5種類(計15種類、弱点検出用堅牢性、整合予測による不確実性、ドリフトタイプ5種類、ハイパーパラメータ感度)
(II)自動EEOC/ECOA/GDPR検証
三 マルチフォーマットレポーティングシステム(対話型/静的HTML、PDF、JSON)
四 メタラーニングによる知識蒸留のためのHPM-KDフレームワーク及び
(v) Daskによるスケーラブルな合成データ生成。
6つのケーススタディ(クレディスコア、雇用、医療、住宅ローン、保険、詐欺)を通じて、DeepBridgeはバリデーション時間を89%削減し(断片化されたツールで150分)、完全なカバレッジでフェアネス違反を自動的に検出し(既存のツールで10/10の機能対2/10)、監査可能なレポートを数分で生成します。
HPM-KD は圧縮比 2.3--7x (CIFAR100): +1.00--2.04pp vs. Direct Training (p<0.05) で一貫した優位性を示し、知識蒸留がより大きな教師と学生のギャップに有効であることを確認した。
20名のユーザビリティスタディでは、SUSスコアが87.5名(トップ10%, `excellent'')、95%の成功率、認知負荷が低かった(NASA-TLX 28/100)。
DeepBridgeはMITライセンス下でhttps://github.com/deepbridge/deepbridgeでオープンソース化され、https://deepbridge.readthedocs.ioで完全なドキュメントが公開されている。
関連論文リスト
- Open Horizons: Evaluating Deep Models in the Wild [0.0]
CIFAR-10におけるオープンセット認識(OSR)とクラスインクリメンタル学習(FSCIL)の併用に関する統一実験を行った。
OSRでは、ResNet-50、ConvNeXt-Tiny、CLIP ViT-B/16の3つの事前学習された凍結型視覚エンコーダを比較し、線形プローブと4つのポストホックスコア関数(MSP、Energy、Mahalanobis、kNN)を使用。
FSCILでは,部分凍結型ResNet-50を用いたSPPR,OrCo,ConCMの比較を行った。
論文 参考訳(メタデータ) (2025-12-13T03:03:59Z) - ODKE+: Ontology-Guided Open-Domain Knowledge Extraction with LLMs [1.904138488164197]
ODKE+は、Webソースから数百万のオープンドメイン事実を自動的に抽出し、摂取するプロダクショングレードのシステムである。
このシステムはバッチとストリーミングモードをサポートし、900万以上のウィキペディアページを処理し、9.8%の精度で900万の高信頼の事実を取り込みます。
論文 参考訳(メタデータ) (2025-09-04T23:05:23Z) - Performance of Machine Learning Classifiers for Anomaly Detection in Cyber Security Applications [0.1601392577755919]
この研究は、2つの不均衡なパブリックデータセット上の機械学習モデルを実証的に評価する。
テスト対象はeXtreme Gradient Boosting (XGB) と Multi Layer Perceptron (MLP) である。
IterativeImputerの結果は平均値と中央値に匹敵するが、複雑性と実行時間の増加のために大規模なデータセットには推奨されない。
論文 参考訳(メタデータ) (2025-04-26T02:43:27Z) - Beyond RAG: Task-Aware KV Cache Compression for Comprehensive Knowledge Reasoning [23.376181947937788]
ゼロまたは少数ショット設定で外部知識を圧縮するタスク対応キー値(KV)キャッシュ圧縮を提案する。
実験の結果,本手法はRAG法とタスク非依存圧縮法の両方に優れていた。
合成データセットは、粗いエビデンスで十分であるのに対して、タスク認識圧縮は幅広い知識タスクに優れていることを強調している。
論文 参考訳(メタデータ) (2025-03-06T21:07:41Z) - Enhancing Domain-Specific Retrieval-Augmented Generation: Synthetic Data Generation and Evaluation using Reasoning Models [0.6827423171182154]
Retrieval-Augmented Generation (RAG) システムは、技術的領域に適用した場合、大きなパフォーマンスギャップに直面します。
ドメイン固有のRAG性能を最適化するために、粒度評価指標と合成データ生成を組み合わせたフレームワークを提案する。
10トークン未満の小さなチャンクは、精度を31-42%向上させます。
論文 参考訳(メタデータ) (2025-02-21T06:38:57Z) - BigDocs: An Open Dataset for Training Multimodal Models on Document and Code Tasks [57.589795399265945]
我々は,30タスクにわたる750万のマルチモーダルドキュメントからなる高品質なオープンアクセスデータセットであるBigDocs-7.5Mを紹介した。
BigDocs-Benchも導入しています。
実験の結果,BigDocs-Bench を用いたトレーニングでは,クローズドソース GPT-4o よりも平均性能が 25.8% 向上していることがわかった。
論文 参考訳(メタデータ) (2024-12-05T21:41:20Z) - DeepSeek-V2: A Strong, Economical, and Efficient Mixture-of-Experts Language Model [118.06260386652778]
We present DeepSeek-V2, a strong Mixture-of-Experts (MoE) language model characterized by economical training and efficient inference。
DeepSeek-V2は、MLA(Multi-head Latent Attention)やDeepSeekMoEといった革新的なアーキテクチャを採用している。
DeepSeek-V2はDeepSeek 67Bと比較して大幅に性能が向上し、トレーニングコストは42.5%削減された。
論文 参考訳(メタデータ) (2024-05-07T15:56:43Z) - Prompt-driven efficient Open-set Semi-supervised Learning [52.30303262499391]
オープンセット半教師付き学習(OSSL)は関心を集めており、未ラベルデータにのみOOD(Out-of-distribution)サンプルが組み込まれているというより実践的なシナリオを調査している。
我々はOpenPromptと呼ばれる,プロンプト駆動の効率的なOSSLフレームワークを提案する。
論文 参考訳(メタデータ) (2022-09-28T16:25:08Z) - Black-box Dataset Ownership Verification via Backdoor Watermarking [67.69308278379957]
我々は、リリースデータセットの保護を、(目立たしい)サードパーティモデルのトレーニングに採用されているかどうかの検証として定式化する。
バックドアの透かしを通じて外部パターンを埋め込んでオーナシップの検証を行い,保護することを提案する。
具体的には、有毒なバックドア攻撃(例えばBadNets)をデータセットのウォーターマーキングに利用し、データセット検証のための仮説テストガイダンスメソッドを設計する。
論文 参考訳(メタデータ) (2022-08-04T05:32:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。