論文の概要: Quantifying Overfitting: Introducing the Overfitting Index
- arxiv url: http://arxiv.org/abs/2308.08682v1
- Date: Wed, 16 Aug 2023 21:32:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-21 18:46:19.694054
- Title: Quantifying Overfitting: Introducing the Overfitting Index
- Title(参考訳): オーバーフィッティングの定量化 - オーバーフィッティング指標の導入
- Authors: Sanad Aburass
- Abstract要約: オーバーフィッティング(overfitting)とは、トレーニングデータでは優れたパフォーマンスを示すが、目に見えないデータではフェールである。
本稿では、モデルが過度に適合する傾向を定量的に評価するために考案された新しい指標であるOverfitting Index(OI)を紹介する。
我々の結果は、アーキテクチャ全体にわたる変数過度な振る舞いを強調し、データ拡張による緩和的な影響を強調します。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the rapidly evolving domain of machine learning, ensuring model
generalizability remains a quintessential challenge. Overfitting, where a model
exhibits superior performance on training data but falters on unseen data, is a
recurrent concern. This paper introduces the Overfitting Index (OI), a novel
metric devised to quantitatively assess a model's tendency to overfit. Through
extensive experiments on the Breast Ultrasound Images Dataset (BUS) and the
MNIST dataset using architectures such as MobileNet, U-Net, ResNet, Darknet,
and ViT-32, we illustrate the utility and discernment of the OI. Our results
underscore the variable overfitting behaviors across architectures and
highlight the mitigative impact of data augmentation, especially on smaller and
more specialized datasets. The ViT-32's performance on MNIST further emphasizes
the robustness of certain models and the dataset's comprehensive nature. By
providing an objective lens to gauge overfitting, the OI offers a promising
avenue to advance model optimization and ensure real-world efficacy.
- Abstract(参考訳): 機械学習の急速に発展する領域において、モデルの一般化性を保証することは重要な課題である。
オーバーフィッティング(Overfitting)は、トレーニングデータでは優れたパフォーマンスを示すが、目に見えないデータではフェールである。
本稿では、モデルが過適合する傾向を定量的に評価するために考案された新しい指標であるOverfitting Index(OI)を紹介する。
また,MobileNet,U-Net,ResNet,Darknet,ViT-32などのアーキテクチャを用いたBUSとMNISTデータセットの広範な実験を通じて,OIの有用性と識別について解説する。
私たちの結果は、アーキテクチャ全体にわたる変数のオーバーフィット動作を強調し、特により小さく、より専門的なデータセットに対するデータ拡張の緩和効果を強調します。
ViT-32のMNISTの性能は、特定のモデルの堅牢性とデータセットの包括的な性質をさらに強調している。
オーバーフィッティングを測るための客観的レンズを提供することで、OIはモデル最適化を前進させ、実世界の有効性を確保するための有望な道を提供する。
関連論文リスト
- Adaptive Masking Enhances Visual Grounding [12.793586888511978]
ローショット学習シナリオにおける語彙接地を改善するために,ガウス放射変調を用いた画像解釈型マスキングを提案する。
我々はCOCOやODinWを含むベンチマークデータセットに対するアプローチの有効性を評価し、ゼロショットタスクや少数ショットタスクにおいて優れた性能を示す。
論文 参考訳(メタデータ) (2024-10-04T05:48:02Z) - Explanatory Model Monitoring to Understand the Effects of Feature Shifts on Performance [61.06245197347139]
そこで本研究では,機能シフトによるブラックボックスモデルの振る舞いを説明する新しい手法を提案する。
本稿では,最適輸送と共有値の概念を組み合わせた提案手法について,説明的性能推定として紹介する。
論文 参考訳(メタデータ) (2024-08-24T18:28:19Z) - Imbalance-Aware Culvert-Sewer Defect Segmentation Using an Enhanced Feature Pyramid Network [1.7466076090043157]
本稿では,不均衡なデータセット内での変質管と下水道管のセマンティックセグメンテーションの深層学習モデルを提案する。
このモデルは、データセットの不均衡に対応するために、クラス分解やデータ拡張のような戦略を採用している。
E-FPNが最先端の手法より優れていることを示す。
論文 参考訳(メタデータ) (2024-08-19T17:40:18Z) - A Simple Background Augmentation Method for Object Detection with Diffusion Model [53.32935683257045]
コンピュータビジョンでは、データの多様性の欠如がモデル性能を損なうことはよく知られている。
本稿では, 生成モデルの進歩を生かして, 単純かつ効果的なデータ拡張手法を提案する。
背景強化は、特にモデルの堅牢性と一般化能力を大幅に改善する。
論文 参考訳(メタデータ) (2024-08-01T07:40:00Z) - DetDiffusion: Synergizing Generative and Perceptive Models for Enhanced Data Generation and Perception [78.26734070960886]
現在の知覚モデルは、リソース集約的なデータセットに大きく依存している。
セグメンテーションを通じて知覚認識損失(P.A.損失)を導入し、品質と制御性の両方を改善した。
本手法は,世代間における知覚認識属性(P.A. Attr)の抽出と利用により,データ拡張をカスタマイズする。
論文 参考訳(メタデータ) (2024-03-20T04:58:03Z) - Data-efficient Large Vision Models through Sequential Autoregression [58.26179273091461]
限られたデータセットに基づいて,効率的な自己回帰に基づく視覚モデルを構築する。
このモデルは,高レベル・低レベルのセマンティック理解の両方にまたがる視覚的タスクにおいて,その習熟度をいかに達成するかを実証する。
我々の経験的評価は、モデルが様々なタスクに適応する際の機敏さを強調し、パラメータフットプリントの大幅な削減を図った。
論文 参考訳(メタデータ) (2024-02-07T13:41:53Z) - Visual Prompting Upgrades Neural Network Sparsification: A Data-Model Perspective [64.04617968947697]
より優れた重量空間を実現するために、新しいデータモデル共設計視点を導入する。
具体的には、提案したVPNフレームワークでニューラルネットワークのスパーシフィケーションをアップグレードするために、カスタマイズされたVisual Promptが実装されている。
論文 参考訳(メタデータ) (2023-12-03T13:50:24Z) - Scaling Laws Do Not Scale [54.72120385955072]
最近の研究によると、データセットのサイズが大きくなると、そのデータセットでトレーニングされたモデルのパフォーマンスが向上する。
このスケーリング法則の関係は、モデルのアウトプットの質を異なる集団がどのように認識するかと一致しないパフォーマンスを測定するために使われる指標に依存する、と我々は主張する。
異なるコミュニティは、互いに緊張関係にある価値を持ち、モデル評価に使用されるメトリクスについて、困難で、潜在的に不可能な選択をもたらす可能性がある。
論文 参考訳(メタデータ) (2023-07-05T15:32:21Z) - Exploring the Effects of Data Augmentation for Drivable Area
Segmentation [0.0]
既存の画像データセットを解析することで、データ拡張の利点を調べることに重点を置いている。
以上の結果から,既存技術(SOTA)モデルの性能とロバスト性は劇的に向上する可能性が示唆された。
論文 参考訳(メタデータ) (2022-08-06T03:39:37Z) - MAIN: Multihead-Attention Imputation Networks [4.427447378048202]
本稿では,任意のモデルに適用可能なマルチヘッドアテンションに基づく新しいメカニズムを提案する。
提案手法は、下流タスクの性能を向上させるために、入力データの欠落パターンを誘導的にモデル化する。
論文 参考訳(メタデータ) (2021-02-10T13:50:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。