論文の概要: DIM: Enforcing Domain-Informed Monotonicity in Deep Neural Networks
- arxiv url: http://arxiv.org/abs/2509.21666v1
- Date: Thu, 25 Sep 2025 22:35:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-29 20:57:54.06176
- Title: DIM: Enforcing Domain-Informed Monotonicity in Deep Neural Networks
- Title(参考訳): DIM:ディープニューラルネットワークにおけるドメインインフォームド・モノトニクスの強化
- Authors: Joshua Salim, Jordan Yu, Xilei Zhao,
- Abstract要約: 本稿では,Deep Neural Networks(DIM)におけるドメインインフォームド・モノトニクスの強化という新たな正規化手法を提案する。
DIMは複雑なディープラーニングモデルにおけるドメインインフォームド・モノトニックな関係を維持し、予測をさらに改善する。
シカゴの実際のライドソーシングデータセットと合成されたデータセットを用いて提案手法を検証・検証する。
- 参考スコア(独自算出の注目度): 2.599882743586164
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While deep learning models excel at predictive tasks, they often overfit due to their complex structure and large number of parameters, causing them to memorize training data, including noise, rather than learn patterns that generalize to new data. To tackle this challenge, this paper proposes a new regularization method, i.e., Enforcing Domain-Informed Monotonicity in Deep Neural Networks (DIM), which maintains domain-informed monotonic relationships in complex deep learning models to further improve predictions. Specifically, our method enforces monotonicity by penalizing violations relative to a linear baseline, effectively encouraging the model to follow expected trends while preserving its predictive power. We formalize this approach through a comprehensive mathematical framework that establishes a linear reference, measures deviations from monotonic behavior, and integrates these measurements into the training objective. We test and validate the proposed methodology using a real-world ridesourcing dataset from Chicago and a synthetically created dataset. Experiments across various neural network architectures show that even modest monotonicity constraints consistently enhance model performance. DIM enhances the predictive performance of deep neural networks by applying domain-informed monotonicity constraints to regularize model behavior and mitigate overfitting
- Abstract(参考訳): ディープラーニングモデルは予測タスクで優れているが、複雑な構造と多数のパラメータのために過度に適合し、新しいデータに一般化するパターンを学ぶのではなく、ノイズを含むトレーニングデータを記憶する。
この課題に対処するために、複雑なディープラーニングモデルにおけるドメインインフォームド・モノトニックな関係を維持し、予測をさらに改善する新しい正規化手法、すなわち、ディープニューラルネットワーク(DIM)におけるドメインインフォームド・モノトニック性(Domain-Informed Monotonicity)の強化を提案する。
具体的には,線形ベースラインに対する違反をペナルティ化し,予測力を保ちながら予測傾向に従うことを効果的に促す。
我々は、線形参照を確立し、単調な振る舞いから逸脱を計測し、これらの測定を訓練目的に統合する包括的数学的枠組みにより、このアプローチを形式化する。
シカゴの実際のライドソーシングデータセットと合成されたデータセットを用いて提案手法を検証・検証する。
さまざまなニューラルネットワークアーキテクチャの実験により、控えめなモノトニック性制約でさえ、モデル性能を一貫して向上させることが示された。
DIMによる深層ニューラルネットワークの予測性能の向上 : ドメインインフォームド・モノトニック性制約の適用によるモデル動作の正則化と過度適合の軽減
関連論文リスト
- Neural Network Reprogrammability: A Unified Theme on Model Reprogramming, Prompt Tuning, and Prompt Instruction [55.914891182214475]
モデル適応のための統一フレームワークとして,ニューラルネットワークの再プログラム可能性を導入する。
本稿では,4つの重要な側面にまたがる情報操作アプローチを分類する分類法を提案する。
残る技術的課題や倫理的考察も分析する。
論文 参考訳(メタデータ) (2025-06-05T05:42:27Z) - Monotone Peridynamic Neural Operator for Nonlinear Material Modeling with Conditionally Unique Solutions [8.178003326156418]
ニューラル演算子に基づく新しいデータ駆動非局所モデル学習手法であるモノトンペリダイナミックニューラル演算子(MPNO)を導入する。
MPNOは非局所核と非線形関係を学習し、モノトーン勾配ネットワークを通じて解の特異性を保証する。
我々は,MPNOが従来のニューラルネットワークよりも優れた一般化能力を示すことを示す。
論文 参考訳(メタデータ) (2025-05-02T07:10:31Z) - Generalized Factor Neural Network Model for High-dimensional Regression [50.554377879576066]
複素・非線形・雑音に隠れた潜在低次元構造を持つ高次元データセットをモデル化する課題に取り組む。
我々のアプローチは、非パラメトリック回帰、因子モデル、高次元回帰のためのニューラルネットワークの概念のシームレスな統合を可能にする。
論文 参考訳(メタデータ) (2025-02-16T23:13:55Z) - Regularized Neural Ensemblers [55.15643209328513]
本研究では,正規化ニューラルネットワークをアンサンブル手法として活用することを検討する。
低多様性のアンサンブルを学習するリスクを動機として,ランダムにベースモデル予測をドロップすることで,アンサンブルモデルの正規化を提案する。
このアプローチはアンサンブル内の多様性の低い境界を提供し、過度な適合を減らし、一般化能力を向上させる。
論文 参考訳(メタデータ) (2024-10-06T15:25:39Z) - Nonlinear denoising score matching for enhanced learning of structured distributions [12.428200977408817]
非線形ドリフトに一般化することで、追加構造を力学に組み込むことができる。
本手法は,データセットに生じる構造を柔軟に組み込むことで,より少ないデータでスコアベースの生成モデルを学習する。
論文 参考訳(メタデータ) (2024-05-24T15:14:23Z) - The Edge-of-Reach Problem in Offline Model-Based Reinforcement Learning [31.8260779160424]
学習力学モデルの改善に伴い,一般的なアルゴリズムがどのように機能するかを検討する。
エッジ・オブ・リーチ問題に直接対処する単純で堅牢な手法であるReach-Aware Learning (RAVL)を提案する。
論文 参考訳(メタデータ) (2024-02-19T20:38:00Z) - Certified Monotonic Neural Networks [15.537695725617576]
本稿では,混合整数線形計画問題の解法により,一般のピースワイド線形ニューラルネットワークの単調性を証明することを提案する。
我々のアプローチでは、重み空間に対する人間設計の制約を必要とせず、より正確な近似が得られる。
論文 参考訳(メタデータ) (2020-11-20T04:58:13Z) - Sparsely constrained neural networks for model discovery of PDEs [0.0]
本稿では,任意のスパース回帰手法を用いて,ディープラーニングに基づくサロゲートのスパースパターンを決定するモジュラーフレームワークを提案する。
異なるネットワークアーキテクチャと疎度推定器がモデル発見精度と収束性を,いくつかのベンチマーク例でどのように改善するかを示す。
論文 参考訳(メタデータ) (2020-11-09T11:02:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。