論文の概要: Neural Fields with Hard Constraints of Arbitrary Differential Order
- arxiv url: http://arxiv.org/abs/2306.08943v2
- Date: Sun, 29 Oct 2023 22:11:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-31 21:11:47.048561
- Title: Neural Fields with Hard Constraints of Arbitrary Differential Order
- Title(参考訳): 任意微分次数のハード制約を持つニューラルフィールド
- Authors: Fangcheng Zhong, Kyle Fogarty, Param Hanji, Tianhao Wu, Alejandro
Sztrajman, Andrew Spielberg, Andrea Tagliasacchi, Petra Bosilj, Cengiz
Oztireli
- Abstract要約: 我々は、ニューラルネットワークに厳しい制約を課すための一連のアプローチを開発する。
制約は、ニューラルネットワークとそのデリバティブに適用される線形作用素として指定することができる。
私たちのアプローチは、広範囲の現実世界のアプリケーションで実証されています。
- 参考スコア(独自算出の注目度): 61.49418682745144
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: While deep learning techniques have become extremely popular for solving a
broad range of optimization problems, methods to enforce hard constraints
during optimization, particularly on deep neural networks, remain
underdeveloped. Inspired by the rich literature on meshless interpolation and
its extension to spectral collocation methods in scientific computing, we
develop a series of approaches for enforcing hard constraints on neural fields,
which we refer to as Constrained Neural Fields (CNF). The constraints can be
specified as a linear operator applied to the neural field and its derivatives.
We also design specific model representations and training strategies for
problems where standard models may encounter difficulties, such as conditioning
of the system, memory consumption, and capacity of the network when being
constrained. Our approaches are demonstrated in a wide range of real-world
applications. Additionally, we develop a framework that enables highly
efficient model and constraint specification, which can be readily applied to
any downstream task where hard constraints need to be explicitly satisfied
during optimization.
- Abstract(参考訳): ディープラーニング技術は、幅広い最適化問題を解決するために非常に人気があるが、特にディープニューラルネットワークでは、最適化中に厳しい制約を課す方法が未開発のままである。
メッシュレス補間に関する豊富な文献や、科学計算におけるスペクトルコロケーション法の拡張に触発された我々は、ニューラルネットワークに厳しい制約を課すための一連のアプローチを開発し、これを制約ニューラルネットワーク(Constrained Neural Fields, CNF)と呼ぶ。
制約は、ニューラルネットワークとそのデリバティブに適用される線形作用素として指定することができる。
また,システムの条件付けやメモリ消費,ネットワーク容量の制約など,標準モデルが問題に遭遇する可能性のある問題に対して,特定のモデル表現とトレーニング戦略を設計する。
私たちのアプローチは、幅広い現実世界のアプリケーションで実証されています。
さらに,最適化中に厳密な制約を明示的に満たさなければならないダウンストリームタスクに容易に適用可能な,高効率なモデルと制約仕様を実現するフレームワークを開発する。
関連論文リスト
- Hard-Constrained Neural Networks with Universal Approximation Guarantees [5.3663546125491735]
HardNetは、モデルキャパシティを犠牲にすることなく、本質的に厳しい制約を満たすニューラルネットワークを構築するためのフレームワークである。
ニューラルネットワークの普遍近似能力はHardNetが保持していることを示す。
論文 参考訳(メタデータ) (2024-10-14T17:59:24Z) - Deep Neural Network for Constraint Acquisition through Tailored Loss
Function [0.0]
データから制約を学習することの重要性は、実世界の問題解決における潜在的な応用によって裏付けられている。
この研究は、シンボリック回帰に基づくディープニューラルネットワーク(DNN)に基づく新しいアプローチを導入する。
論文 参考訳(メタデータ) (2024-03-04T13:47:33Z) - Scaling physics-informed hard constraints with mixture-of-experts [0.0]
我々は、Mixture-of-Experts (MoE) を用いて、ハード物理制約を強制するためのスケーラブルなアプローチを開発する。
MoEは小さなドメインに対する制約を課し、それぞれが微分可能な最適化によって"専門家"によって解決される。
標準的な微分可能最適化と比較して、我々のスケーラブルなアプローチは、ニューラルPDEソルバ設定においてより精度が高い。
論文 参考訳(メタデータ) (2024-02-20T22:45:00Z) - NITO: Neural Implicit Fields for Resolution-free Topology Optimization [7.338114424386579]
トポロジー最適化はエンジニアリング設計において重要な課題であり、そのゴールは、与えられた空間内で物質を最適に分配することである。
深層学習を用いたトポロジ最適化問題を高速化する新しい手法であるニューラルインプリシットトポロジ最適化(NITO)を導入する。
NITOはSOTA拡散モデルに比べて最大7倍の効率で構造を合成する。
論文 参考訳(メタデータ) (2024-02-07T18:27:29Z) - The Convex Landscape of Neural Networks: Characterizing Global Optima
and Stationary Points via Lasso Models [75.33431791218302]
ディープニューラルネットワーク(DNN)モデルは、プログラミング目的に使用される。
本稿では,凸型神経回復モデルについて検討する。
定常的非次元目的物はすべて,グローバルサブサンプリング型凸解法プログラムとして特徴付けられることを示す。
また, 静止非次元目的物はすべて, グローバルサブサンプリング型凸解法プログラムとして特徴付けられることを示す。
論文 参考訳(メタデータ) (2023-12-19T23:04:56Z) - From NeurODEs to AutoencODEs: a mean-field control framework for
width-varying Neural Networks [68.8204255655161]
本稿では,動的に駆動する制御フィールドをベースとした,AutoencODEと呼ばれる新しいタイプの連続時間制御システムを提案する。
損失関数が局所凸な領域では,多くのアーキテクチャが復元可能であることを示す。
論文 参考訳(メタデータ) (2023-07-05T13:26:17Z) - Constrained Empirical Risk Minimization: Theory and Practice [2.4934936799100034]
本稿では,Deep Neural Networks (DNN) などのパラメータ化された関数集合に対する制約の厳格化を可能にするフレームワークを提案する。
我々は、幾何学的深層学習で使用される同変ネットワークの範囲外にある制約に焦点を当てる。
このフレームワークの主な例として、畳み込みニューラルネットワーク(CNN)のフィルタをウェーブレットに制限し、これらのウェーブレットネットワークを医療領域における輪郭予測のタスクに適用する。
論文 参考訳(メタデータ) (2023-02-09T16:11:58Z) - Offline Model-Based Optimization via Normalized Maximum Likelihood
Estimation [101.22379613810881]
データ駆動最適化の問題を検討し、一定の点セットでクエリのみを与えられた関数を最大化する必要がある。
この問題は、関数評価が複雑で高価なプロセスである多くの領域に現れる。
我々は,提案手法を高容量ニューラルネットワークモデルに拡張可能なトラクタブル近似を提案する。
論文 参考訳(メタデータ) (2021-02-16T06:04:27Z) - An Integer Linear Programming Framework for Mining Constraints from Data [81.60135973848125]
データから制約をマイニングするための一般的なフレームワークを提案する。
特に、構造化された出力予測の推論を整数線形プログラミング(ILP)問題とみなす。
提案手法は,9×9のスドクパズルの解法を学習し,基礎となるルールを提供することなく,例からツリー問題を最小限に分散させることが可能であることを示す。
論文 参考訳(メタデータ) (2020-06-18T20:09:53Z) - Local Propagation in Constraint-based Neural Network [77.37829055999238]
ニューラルネットワークアーキテクチャの制約に基づく表現について検討する。
本稿では,いわゆるアーキテクチャ制約を満たすのに適した簡単な最適化手法について検討する。
論文 参考訳(メタデータ) (2020-02-18T16:47:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。