論文の概要: Prevention of Overfitting on Mesh-Structured Data Regressions with a Modified Laplace Operator
- arxiv url: http://arxiv.org/abs/2507.06631v1
- Date: Wed, 09 Jul 2025 07:57:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-10 17:37:43.515302
- Title: Prevention of Overfitting on Mesh-Structured Data Regressions with a Modified Laplace Operator
- Title(参考訳): 改良型ラプラス演算子を用いたメッシュ構造データ回帰のオーバーフィッティング防止
- Authors: Enda D. V. Bigarella,
- Abstract要約: 本報告では,メッシュ型データ構造に適用した,データ回帰に対する過度な適合の検出と防止方法について報告する。
メッシュ構造は、雑音のないデータに対して有限差分方式でラプラス演算子二階微分の直接計算を可能にする。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This document reports on a method for detecting and preventing overfitting on data regressions, herein applied to mesh-like data structures. The mesh structure allows for the straightforward computation of the Laplace-operator second-order derivatives in a finite-difference fashion for noiseless data. Derivatives of the training data are computed on the original training mesh to serve as a true label of the entropy of the training data. Derivatives of the trained data are computed on a staggered mesh to identify oscillations in the interior of the original training mesh cells. The loss of the Laplace-operator derivatives is used for hyperparameter optimisation, achieving a reduction of unwanted oscillation through the minimisation of the entropy of the trained model. In this setup, testing does not require the splitting of points from the training data, and training is thus directly performed on all available training points. The Laplace operator applied to the trained data on a staggered mesh serves as a surrogate testing metric based on diffusion properties.
- Abstract(参考訳): 本報告では,メッシュ型データ構造に適用した,データ回帰に対する過度な適合の検出と防止方法について報告する。
メッシュ構造は、雑音のないデータに対して有限差分方式でラプラス演算子二階微分の直接計算を可能にする。
トレーニングデータの導出物は、元のトレーニングメッシュ上で計算され、トレーニングデータのエントロピーの真のラベルとして機能する。
トレーニングされたデータの誘導体は、スタックされたメッシュ上で計算され、元のトレーニングメッシュセルの内部の振動を識別する。
ラプラス演算子誘導体の損失はハイパーパラメータ最適化に使われ、訓練されたモデルのエントロピーの最小化によって不要な振動の低減を達成する。
このセットアップでは、テストはトレーニングデータからポイントを分割する必要がない。
スタッガーメッシュ上のトレーニングデータに適用されたLaplace演算子は、拡散特性に基づいた代理試験指標として機能する。
関連論文リスト
- Elliptic Loss Regularization [24.24785205800212]
本稿では,データ入力空間と損失値のマッピングにおいて,滑らかさのレベルを強制する手法を提案する。
ネットワークの損失がデータ領域上の楕円演算子を満たすことを要求して、正規性のレベルを規定する。
論文 参考訳(メタデータ) (2025-03-04T00:08:08Z) - DispFormer: Pretrained Transformer for Flexible Dispersion Curve Inversion from Global Synthesis to Regional Applications [59.488352977043974]
本研究では、レイリー波位相と群分散曲線から$v_s$プロファイルを反転させるトランスフォーマーベースのニューラルネットワークであるDispFormerを提案する。
結果は、ラベル付きデータなしでもゼロショットのDispFormerは、基底の真実とよく一致する逆プロファイルを生成することを示している。
論文 参考訳(メタデータ) (2025-01-08T09:08:24Z) - Capturing the Temporal Dependence of Training Data Influence [100.91355498124527]
我々は、訓練中にデータポイントを除去する影響を定量化する、軌跡特異的な離脱の影響の概念を定式化する。
軌道固有LOOの効率的な近似を可能にする新しい手法であるデータ値埋め込みを提案する。
データバリューの埋め込みは、トレーニングデータの順序付けをキャプチャするので、モデルトレーニングのダイナミクスに関する貴重な洞察を提供する。
論文 参考訳(メタデータ) (2024-12-12T18:28:55Z) - Derivative-based regularization for regression [3.0408645115035036]
多変数回帰問題における正規化に対する新しいアプローチを導入する。
我々の正規化器はDLossと呼ばれ、トレーニングデータから推定したモデル導関数とデータ生成関数の導関数の違いを解析する。
論文 参考訳(メタデータ) (2024-05-01T14:57:59Z) - Mendata: A Framework to Purify Manipulated Training Data [12.406255198638064]
我々は、操作したトレーニングデータを浄化するフレームワークであるMendataを提案する。
Mendataはトレーニングインプットを乱してユーティリティを保持するが、参照データと同様に分散される。
我々は、最先端のデータ中毒やデータ追跡技術にMendataを適用して、その効果を実証する。
論文 参考訳(メタデータ) (2023-12-03T04:40:08Z) - Reconstructing Training Data from Model Gradient, Provably [68.21082086264555]
ランダムに選択されたパラメータ値で1つの勾配クエリからトレーニングサンプルを再構成する。
センシティブなトレーニングデータを示す証明可能な攻撃として、われわれの発見はプライバシーに対する深刻な脅威を示唆している。
論文 参考訳(メタデータ) (2022-12-07T15:32:22Z) - Robust Training under Label Noise by Over-parameterization [41.03008228953627]
本稿では,トレーニングラベルの比率が低下した分類タスクにおいて,過パラメータ化深層ネットワークの堅牢なトレーニングを行うための原則的手法を提案する。
ラベルノイズはクリーンデータから学んだネットワークと疎結合なので、ノイズをモデル化してデータから分離することを学びます。
注目すべきは、このような単純な手法を用いて訓練を行う場合、様々な実データに対してラベルノイズに対する最先端のテスト精度を示すことである。
論文 参考訳(メタデータ) (2022-02-28T18:50:10Z) - DIVA: Dataset Derivative of a Learning Task [108.18912044384213]
本稿では,データセットに関する学習課題の微分を計算する手法を提案する。
学習タスクは、トレーニングセットから検証エラーまでの関数であり、トレーニングされたディープニューラルネットワーク(DNN)で表現することができる。
は、トレーニングされたモデルを中心に計算され、各トレーニングサンプルの重みの外れ値がバリデーションエラーにどのように影響するかを知らせる線形演算子である。
論文 参考訳(メタデータ) (2021-11-18T16:33:12Z) - Imputation-Free Learning from Incomplete Observations [73.15386629370111]
本稿では,不備な値を含む入力からの推論をインプットなしでトレーニングするIGSGD法の重要性について紹介する。
バックプロパゲーションによるモデルのトレーニングに使用する勾配の調整には強化学習(RL)を用いる。
我々の計算自由予測は、最先端の計算手法を用いて従来の2段階の計算自由予測よりも優れている。
論文 参考訳(メタデータ) (2021-07-05T12:44:39Z) - Adversarial Training for EM Classification Networks [0.0]
本稿では,ドメイン・アドバイザリ・ネットワークの新たな変種について述べる。
DANNネットワークの両方のフォークに対して、新しい損失関数が定義される。
ドメイン」の概念を拡張して、任意のユーザ定義ラベルを含めることができる。
論文 参考訳(メタデータ) (2020-11-20T20:11:58Z) - Predicting Training Time Without Training [120.92623395389255]
我々は、事前訓練された深層ネットワークが損失関数の所定の値に収束する必要がある最適化ステップの数を予測する問題に取り組む。
我々は、微調整中の深部ネットワークのトレーニングダイナミクスが線形化モデルによってよく近似されているという事実を活用する。
トレーニングをする必要なく、特定の損失にモデルを微調整するのに要する時間を予測できます。
論文 参考訳(メタデータ) (2020-08-28T04:29:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。