論文の概要: Data-Aware Training Quality Monitoring and Certification for Reliable Deep Learning
- arxiv url: http://arxiv.org/abs/2410.10984v1
- Date: Mon, 14 Oct 2024 18:13:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-16 14:01:44.757530
- Title: Data-Aware Training Quality Monitoring and Certification for Reliable Deep Learning
- Title(参考訳): 信頼度の高い深層学習のためのデータアウェアトレーニング品質モニタリングと認定
- Authors: Farhang Yeganegi, Arian Eamaz, Mojtaba Soltanalian,
- Abstract要約: 我々は、ニューラルネットワークトレーニングのリアルタイム、データ認識認証、監視のための新しいフレームワークであるYESトレーニングバウンドを紹介する。
我々は,YESバウンダリが,最適地域におけるトレーニング損失高原の特定など,従来の局所最適化の視点を超えた洞察を提供することを示した。
私たちはリアルタイム評価のための強力なツールを提供し、ディープラーニングにおける品質保証をトレーニングするための新しい標準を設定しています。
- 参考スコア(独自算出の注目度): 13.846014191157405
- License:
- Abstract: Deep learning models excel at capturing complex representations through sequential layers of linear and non-linear transformations, yet their inherent black-box nature and multi-modal training landscape raise critical concerns about reliability, robustness, and safety, particularly in high-stakes applications. To address these challenges, we introduce YES training bounds, a novel framework for real-time, data-aware certification and monitoring of neural network training. The YES bounds evaluate the efficiency of data utilization and optimization dynamics, providing an effective tool for assessing progress and detecting suboptimal behavior during training. Our experiments show that the YES bounds offer insights beyond conventional local optimization perspectives, such as identifying when training losses plateau in suboptimal regions. Validated on both synthetic and real data, including image denoising tasks, the bounds prove effective in certifying training quality and guiding adjustments to enhance model performance. By integrating these bounds into a color-coded cloud-based monitoring system, we offer a powerful tool for real-time evaluation, setting a new standard for training quality assurance in deep learning.
- Abstract(参考訳): ディープラーニングモデルは、線形および非線形変換のシーケンシャルな層を通して複雑な表現を捉えるのに優れていますが、その固有のブラックボックスの性質とマルチモーダルなトレーニングランドスケープは、信頼性、堅牢性、安全性に関する重要な懸念を、特に高度なアプリケーションにおいて引き起こします。
これらの課題に対処するために、ニューラルネットワークトレーニングのリアルタイムなデータ認識認証と監視のための新しいフレームワークであるYESトレーニングバウンドを紹介します。
YESバウンダリは、データ利用と最適化のダイナミクスの効率を評価し、トレーニング中の進捗を評価し、最適な振る舞いを検出する効果的なツールを提供する。
実験の結果、YES境界は、最適領域におけるトレーニング損失高原の特定など、従来の局所最適化の視点を超えた洞察を提供することがわかった。
画像復調タスクを含む合成データと実データの両方で検証された境界は、トレーニング品質の認定とモデル性能を向上させるためのガイダンス調整に有効である。
これらの境界をカラーコードされたクラウドベースの監視システムに統合することにより、リアルタイム評価のための強力なツールを提供し、ディープラーニングにおける品質保証をトレーニングするための新しい標準を設定します。
関連論文リスト
- Deciphering Cross-Modal Alignment in Large Vision-Language Models with Modality Integration Rate [118.37653302885607]
本稿では,LVLM(Large Vision Language Models)のマルチモーダル事前学習品質を示すために,MIR(Modality Integration Rate)を提案する。
MIRは、トレーニングデータ選択、トレーニング戦略スケジュール、モデルアーキテクチャ設計に重点を置いて、トレーニング前の結果を改善する。
論文 参考訳(メタデータ) (2024-10-09T17:59:04Z) - Mind the Interference: Retaining Pre-trained Knowledge in Parameter Efficient Continual Learning of Vision-Language Models [79.28821338925947]
ドメインクラスのインクリメンタル学習は現実的だが、継続的な学習シナリオである。
これらの多様なタスクに対処するために、事前訓練されたビジョンランゲージモデル(VLM)を導入し、その強力な一般化性を実現する。
事前訓練されたVLMにエンコードされた知識は、新しいタスクに適応する際に妨げられ、固有のゼロショット能力を損なう。
既存の手法では、膨大なオーバーヘッドを必要とする余分なデータセットに知識蒸留でVLMをチューニングすることで、この問題に対処している。
我々は、事前学習した知識を保持できるDIKI(Distributed-Aware Interference-free Knowledge Integration)フレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-07T12:19:37Z) - Automatic UAV-based Airport Pavement Inspection Using Mixed Real and
Virtual Scenarios [3.0874677990361246]
本稿では,UAVが捉えた画像を用いて,舗装の苦悩を自動的に識別する視覚的アプローチを提案する。
提案手法は,画像の欠陥を分割する深層学習(DL)に基づいている。
合成および実訓練画像からなる混合データセットを使用することで、実アプリケーションシナリオでトレーニングモデルをテストする場合、より良い結果が得られることを示す。
論文 参考訳(メタデータ) (2024-01-11T16:30:07Z) - Assurance for Deployed Continual Learning Systems [0.0]
著者らは、ディープラーニングコンピュータビジョンアルゴリズムを用いて、連続学習を安全に実行するための新しいフレームワークを開発した。
安全フレームワークには、画像分類を実行する畳み込みニューラルネットワークのアンサンブルなど、いくつかの機能が含まれている。
結果は、システムが安全に動作していないことをフレームワークが検出できることを示している。
論文 参考訳(メタデータ) (2023-11-16T22:22:13Z) - CTP: Towards Vision-Language Continual Pretraining via Compatible
Momentum Contrast and Topology Preservation [128.00940554196976]
Vision-Language Continual Pretraining (VLCP)は、大規模なデータセット上でオフラインでトレーニングすることで、さまざまな下流タスクに対して印象的な結果を示している。
VLCP(Vision-Language Continual Pretraining)の研究を支援するために,我々はまず,包括的で統一されたベンチマークデータセットP9Dをコントリビュートする。
独立したタスクとしての各業界からのデータは、継続的な学習をサポートし、Webデータの事前学習をシミュレートする現実世界のロングテールな性質に準拠している。
論文 参考訳(メタデータ) (2023-08-14T13:53:18Z) - ALP: Action-Aware Embodied Learning for Perception [60.64801970249279]
認知のための行動認識型身体学習(ALP)について紹介する。
ALPは、強化学習ポリシーと逆ダイナミクス予測目標を最適化することにより、行動情報を表現学習に組み込む。
ALPは、複数の下流認識タスクにおいて、既存のベースラインよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-06-16T21:51:04Z) - Towards Sequence-Level Training for Visual Tracking [60.95799261482857]
本研究は、強化学習に基づく視覚追跡のためのシーケンスレベルのトレーニング戦略を導入する。
4つの代表的な追跡モデル、SiamRPN++、SiamAttn、TransT、TrDiMPは、提案手法をトレーニングに取り入れることで一貫して改善されている。
論文 参考訳(メタデータ) (2022-08-11T13:15:36Z) - Training Efficiency and Robustness in Deep Learning [2.6451769337566406]
ディープラーニングモデルのトレーニング効率と堅牢性を改善するためのアプローチについて検討する。
より情報的なトレーニングデータに基づく学習の優先順位付けは収束速度を高め、テストデータに対する一般化性能を向上させる。
トレーニングデータのサンプリングに対する冗長性を考慮した修正により、トレーニング速度が向上し、トレーニング信号の多様性を検出する効率的な方法が開発されていることを示す。
論文 参考訳(メタデータ) (2021-12-02T17:11:33Z) - Self-Adaptive Training: Bridging the Supervised and Self-Supervised
Learning [16.765461276790944]
自己適応型トレーニングは、追加の計算コストを課すことなく、モデル予測によってトレーニングプロセスを動的にキャリブレーションし、強化する統一型トレーニングアルゴリズムです。
ランダムノイズや敵対的な例など、破損したトレーニングデータの深層ネットワークのトレーニングダイナミクスを分析します。
分析の結果, モデル予測はデータ中の有用な情報量を拡大することが可能であり, 強調ラベル情報がない場合にも広く発生することがわかった。
論文 参考訳(メタデータ) (2021-01-21T17:17:30Z) - Auto-Rectify Network for Unsupervised Indoor Depth Estimation [119.82412041164372]
ハンドヘルド環境に現れる複雑な自我運動が,学習深度にとって重要な障害であることが確認された。
本稿では,相対回転を除去してトレーニング画像の修正を効果的に行うデータ前処理手法を提案する。
その結果、従来の教師なしSOTA法よりも、難易度の高いNYUv2データセットよりも優れていた。
論文 参考訳(メタデータ) (2020-06-04T08:59:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。