論文の概要: Beyond Heuristics: Globally Optimal Configuration of Implicit Neural Representations
- arxiv url: http://arxiv.org/abs/2509.23139v1
- Date: Sat, 27 Sep 2025 05:45:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:19.063562
- Title: Beyond Heuristics: Globally Optimal Configuration of Implicit Neural Representations
- Title(参考訳): ヒューリスティックスを超えて: インプシット・ニューラル表現のグローバルな最適構成
- Authors: Sipeng Chen, Yan Zhang, Shibo Li,
- Abstract要約: Inlicit Neural Representations (INR) は、信号処理とコンピュータビジョンにおいて、トランスフォーメーションパラダイムとして登場した。
しかし、それらの有効性は最適構成のための原則化された戦略が欠如していることによって制限される。
この研究は、厳密な最適化問題としてINR構成を定式化する最初の統一フレームワークであるOptiINRを紹介する。
- 参考スコア(独自算出の注目度): 8.864909622103388
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Implicit Neural Representations (INRs) have emerged as a transformative paradigm in signal processing and computer vision, excelling in tasks from image reconstruction to 3D shape modeling. Yet their effectiveness is fundamentally limited by the absence of principled strategies for optimal configuration - spanning activation selection, initialization scales, layer-wise adaptation, and their intricate interdependencies. These choices dictate performance, stability, and generalization, but current practice relies on ad-hoc heuristics, brute-force grid searches, or task-specific tuning, often leading to inconsistent results across modalities. This work introduces OptiINR, the first unified framework that formulates INR configuration as a rigorous optimization problem. Leveraging Bayesian optimization, OptiINR efficiently explores the joint space of discrete activation families - such as sinusoidal (SIREN), wavelet-based (WIRE), and variable-periodic (FINER) - and their associated continuous initialization parameters. This systematic approach replaces fragmented manual tuning with a coherent, data-driven optimization process. By delivering globally optimal configurations, OptiINR establishes a principled foundation for INR design, consistently maximizing performance across diverse signal processing applications.
- Abstract(参考訳): Inlicit Neural Representations (INR)は、信号処理とコンピュータビジョンにおける変換パラダイムとして登場し、画像再構成から3次元形状モデリングに至るまでのタスクに優れる。
しかし、それらの効果は、活性化の選択、初期化スケール、レイヤワイド適応、複雑な相互依存など、最適な構成のための原則的な戦略が欠如しているため、基本的に制限されている。
これらの選択は性能、安定性、一般化を規定するが、現在の実践はアドホックなヒューリスティック、ブルートフォースグリッドサーチ、タスク固有のチューニングに依存しており、しばしばモダリティ間の一貫性のない結果をもたらす。
この研究は、厳密な最適化問題としてINR構成を定式化する最初の統一フレームワークであるOptiINRを紹介する。
ベイズ最適化を活用して、OptiINRは、正弦波(SIREN)、ウェーブレットベース(WIRE)、可変周期(FINER)などの独立活性化系の結合空間とその関連する連続初期化パラメータを効率的に探索する。
この体系的なアプローチは、断片化された手動チューニングを一貫性のあるデータ駆動最適化プロセスに置き換える。
グローバルに最適な構成を提供することで、OptiINRはINR設計の基礎を確立し、多様な信号処理アプリケーションのパフォーマンスを一貫して最大化する。
関連論文リスト
- Deep Reinforcement Learning-Based DRAM Equalizer Parameter Optimization Using Latent Representations [4.189643331553922]
本稿では,学習した潜時信号表現を用いた効率的な信号整合性評価のためのデータ駆動型フレームワークを提案する。
業界標準のダイナミックランダムアクセスメモリ波形の適用により、窓面積が大幅に改善された。
論文 参考訳(メタデータ) (2025-07-03T06:53:51Z) - Preference Optimization for Combinatorial Optimization Problems [54.87466279363487]
強化学習(Reinforcement Learning, RL)は、ニューラルネットワーク最適化のための強力なツールとして登場した。
大幅な進歩にもかかわらず、既存のRLアプローチは報酬信号の減少や大規模な行動空間における非効率な探索といった課題に直面している。
統計的比較モデルを用いて定量的報酬信号を定性的選好信号に変換する新しい手法であるPreference Optimizationを提案する。
論文 参考訳(メタデータ) (2025-05-13T16:47:00Z) - Understanding Inverse Reinforcement Learning under Overparameterization: Non-Asymptotic Analysis and Global Optimality [52.906438147288256]
我々のアルゴリズムは,特定のニューラルネットワーク構造の下で,最適報酬とポリシーを識別できることが示される。
これは、国際的最適性を確実に達成する非漸近収束保証を持つ最初のIRLアルゴリズムである。
論文 参考訳(メタデータ) (2025-03-22T21:16:08Z) - Explicit and Implicit Graduated Optimization in Deep Neural Networks [0.6906005491572401]
本稿では,最適雑音スケジューリングを用いた明示的な累積最適化アルゴリズムの性能を実験的に評価する。
さらに、ResNetアーキテクチャを用いた画像分類タスクの実験を通じて、その効果を実証する。
論文 参考訳(メタデータ) (2024-12-16T07:23:22Z) - Primitive Agentic First-Order Optimization [0.0]
本研究では,一階強化学習として,原始状態表現とエージェント環境相互作用を組み合わせた概念実証研究を提案する。
その結果,RLに基づく最適化では,基本的RL法と簡潔な部分的状態表現を組み合わせることで,複雑性の管理を最適化できることがわかった。
論文 参考訳(メタデータ) (2024-06-07T11:13:38Z) - Analyzing and Enhancing the Backward-Pass Convergence of Unrolled
Optimization [50.38518771642365]
ディープネットワークにおけるコンポーネントとしての制約付き最適化モデルの統合は、多くの専門的な学習タスクに有望な進歩をもたらした。
この設定における中心的な課題は最適化問題の解によるバックプロパゲーションであり、しばしば閉形式を欠いている。
本稿では, 非線形最適化の後方通過に関する理論的知見を提供し, 特定の反復法による線形システムの解と等価であることを示す。
Folded Optimizationと呼ばれるシステムが提案され、非ローリングなソルバ実装からより効率的なバックプロパゲーションルールを構築する。
論文 参考訳(メタデータ) (2023-12-28T23:15:18Z) - Backpropagation of Unrolled Solvers with Folded Optimization [55.04219793298687]
ディープネットワークにおけるコンポーネントとしての制約付き最適化モデルの統合は、多くの専門的な学習タスクに有望な進歩をもたらした。
1つの典型的な戦略はアルゴリズムのアンローリングであり、これは反復解法の操作による自動微分に依存している。
本稿では,非ロール最適化の後方通過に関する理論的知見を提供し,効率よく解けるバックプロパゲーション解析モデルを生成するシステムに繋がる。
論文 参考訳(メタデータ) (2023-01-28T01:50:42Z) - Robust Deep Compressive Sensing with Recurrent-Residual Structural
Constraints [0.0]
既存のディープラーニング(CS)手法は、適応的なオンライン最適化を無視するか、コストのかかる反復的な再構築に依存している。
この研究は、R$2$CS-NETと呼ばれる再帰的構造制約を持つ新しいイメージCSフレームワークを探索する。
適応型オンライン最適化を効率的にブリッジする最初のディープCSフレームワークとして、R$2$CS-NETは、オンライン最適化の堅牢性とディープラーニング手法の効率性と非線形能力を統合する。
論文 参考訳(メタデータ) (2022-07-15T05:56:13Z) - Optimization-Inspired Learning with Architecture Augmentations and
Control Mechanisms for Low-Level Vision [74.9260745577362]
本稿では,GDC(Generative, Discriminative, and Corrective)の原則を集約する,最適化に着想を得た統合学習フレームワークを提案する。
フレキシブルな組み合わせで最適化モデルを効果的に解くために,3つのプロパゲーティブモジュールを構築した。
低レベル視覚タスクにおける実験は、GDCの有効性と適応性を検証する。
論文 参考訳(メタデータ) (2020-12-10T03:24:53Z) - Constrained Combinatorial Optimization with Reinforcement Learning [0.30938904602244344]
本稿では,RL(Deep Reinforcement Learning)を用いた制約付き最適化問題に対処する枠組みを提案する。
我々は、その定式化における制約に対処するために、Neural Combinatorial Optimization(NCO)理論を拡張した。
その文脈では、ソリューションは環境との相互作用に基づいて反復的に構築されます。
論文 参考訳(メタデータ) (2020-06-22T03:13:07Z) - Stochastic batch size for adaptive regularization in deep network
optimization [63.68104397173262]
ディープラーニングフレームワークにおける機械学習問題に適用可能な適応正規化を取り入れた一階最適化アルゴリズムを提案する。
一般的なベンチマークデータセットに適用した従来のネットワークモデルに基づく画像分類タスクを用いて,提案アルゴリズムの有効性を実証的に実証した。
論文 参考訳(メタデータ) (2020-04-14T07:54:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。