論文の概要: Sampling Method for Generalized Graph Signals with Pre-selected Vertices via DC Optimization
- arxiv url: http://arxiv.org/abs/2509.14836v1
- Date: Thu, 18 Sep 2025 10:57:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-19 17:26:53.173792
- Title: Sampling Method for Generalized Graph Signals with Pre-selected Vertices via DC Optimization
- Title(参考訳): 直流最適化による事前選択頂点を用いた一般化グラフ信号のサンプリング法
- Authors: Keitaro Yamashita, Kazuki Naganuma, Shunsuke Ono,
- Abstract要約: 本論文は, 一般理論に基づく最適回復を実現するために設計された, 広範囲なグラフ信号の分類法を含む。
既存のフレキシブルサンプリングの方法は、サンプリング、必須包摂、または除外のためのアクティブ頂点の数を制御することができる。
この効果は、様々なグラフ信号モデルの実験によって実証される。
- 参考スコア(独自算出の注目度): 22.188214983252507
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper proposes a method for vertex-wise flexible sampling of a broad class of graph signals, designed to attain the best possible recovery based on the generalized sampling theory. This is achieved by designing a sampling operator by an optimization problem, which is inherently non-convex, as the best possible recovery imposes a rank constraint. An existing method for vertex-wise flexible sampling is able to control the number of active vertices but cannot incorporate prior knowledge of mandatory or forbidden vertices. To address these challenges, we formulate the operator design as a problem that handles a constraint of the number of active vertices and prior knowledge on specific vertices for sampling, mandatory inclusion or exclusion. We transformed this constrained problem into a difference-of-convex (DC) optimization problem by using the nuclear norm and a DC penalty for vertex selection. To solve this, we develop a convergent solver based on the general double-proximal gradient DC algorithm. The effectiveness of our method is demonstrated through experiments on various graph signal models, including real-world data, showing superior performance in the recovery accuracy by comparing to existing methods.
- Abstract(参考訳): 本稿では,多種多様なグラフ信号の頂点的に柔軟なサンプリング法を提案する。
これは、最適化問題によってサンプリング演算子を設計することで実現される。
既存の頂点ワイドサンプリング法では、活性頂点の数を制御できるが、必須あるいは禁止された頂点の事前知識を組み込むことはできない。
これらの課題に対処するため、我々は、演算子設計を、サンプリング、強制包含または排除のための特定の頂点に関する、アクティブ頂点の数と事前知識の制約を扱う問題として定式化する。
我々は、この制約された問題を、核ノルムと頂点選択のためのDCペナルティを用いて、差分凸(DC)最適化問題に変換する。
これを解決するために、一般の二重近位勾配DCアルゴリズムに基づく収束解法を開発した。
本手法の有効性は,実世界のデータを含む様々なグラフ信号モデルを用いた実験により実証され,既存手法との比較による回復精度の向上が示された。
関連論文リスト
- Solving Inverse Problems via Diffusion Optimal Control [3.0079490585515343]
反復線形擬似レギュレータ (iLQR) アルゴリズムにインスパイアされた拡散型最適制御器を導出する。
アルゴリズムの特別な場合として, 理想化後サンプリング方程式を復元できることが示される。
次に,ニューラル逆問題解法の選択に対して提案手法を評価し,逆問題を用いた画像再構成における新たなベースラインを確立する。
論文 参考訳(メタデータ) (2024-12-21T19:47:06Z) - The Convex Landscape of Neural Networks: Characterizing Global Optima
and Stationary Points via Lasso Models [75.33431791218302]
ディープニューラルネットワーク(DNN)モデルは、プログラミング目的に使用される。
本稿では,凸型神経回復モデルについて検討する。
定常的非次元目的物はすべて,グローバルサブサンプリング型凸解法プログラムとして特徴付けられることを示す。
また, 静止非次元目的物はすべて, グローバルサブサンプリング型凸解法プログラムとして特徴付けられることを示す。
論文 参考訳(メタデータ) (2023-12-19T23:04:56Z) - Optimizing Solution-Samplers for Combinatorial Problems: The Landscape
of Policy-Gradient Methods [52.0617030129699]
本稿では,DeepMatching NetworksとReinforcement Learningメソッドの有効性を解析するための新しい理論フレームワークを提案する。
我々の主な貢献は、Max- and Min-Cut、Max-$k$-Bipartite-Bi、Maximum-Weight-Bipartite-Bi、Traveing Salesman Problemを含む幅広い問題である。
本分析の副産物として,バニラ降下による新たな正則化プロセスを導入し,失効する段階的な問題に対処し,悪い静止点から逃れる上で有効であることを示す理論的および実験的証拠を提供する。
論文 参考訳(メタデータ) (2023-10-08T23:39:38Z) - Graph Signal Sampling for Inductive One-Bit Matrix Completion: a
Closed-form Solution [112.3443939502313]
グラフ信号解析と処理の利点を享受する統合グラフ信号サンプリングフレームワークを提案する。
キーとなる考え方は、各ユーザのアイテムのレーティングをアイテムイットグラフの頂点上の関数(信号)に変換することである。
オンライン設定では、グラフフーリエ領域における連続ランダムガウス雑音を考慮したベイズ拡張(BGS-IMC)を開発する。
論文 参考訳(メタデータ) (2023-02-08T08:17:43Z) - A Combinatorial Perspective on the Optimization of Shallow ReLU Networks [35.329916555349214]
浅いReLUネットワークを最適化するNPハード問題は、各トレーニング例のアクティベーションパターンの探索として特徴付けられる。
ゾノトープを用いて自然にモデル化できることを示し、その集合は実現可能な活性化パターンの集合であることを示す。
論文 参考訳(メタデータ) (2022-10-01T03:09:02Z) - An Accelerated Doubly Stochastic Gradient Method with Faster Explicit
Model Identification [97.28167655721766]
本稿では、分散正規化損失最小化問題に対する2倍加速勾配降下法(ADSGD)を提案する。
まず、ADSGDが線形収束率を達成でき、全体的な計算複雑性を低減できることを示す。
論文 参考訳(メタデータ) (2022-08-11T22:27:22Z) - Parabolic Relaxation for Quadratically-constrained Quadratic Programming
-- Part II: Theoretical & Computational Results [6.355764634492975]
我々は,2次制約付き二次プログラムに対する凸緩和と,ほぼ実現可能な解に対するペナル化放物緩和を導入する。
我々は, ある条件を満たす逐次点対点解から, ペナル化放物緩和収束は, カルーシュ・クーン最適正則性問題を満たすことを示した。
論文 参考訳(メタデータ) (2022-08-07T02:58:04Z) - Zeroth-Order Hybrid Gradient Descent: Towards A Principled Black-Box
Optimization Framework [100.36569795440889]
この作業は、一階情報を必要としない零次最適化(ZO)の反復である。
座標重要度サンプリングにおける優雅な設計により,ZO最適化法は複雑度と関数クエリコストの両面において効率的であることを示す。
論文 参考訳(メタデータ) (2020-12-21T17:29:58Z) - Sparse Signal Reconstruction for Nonlinear Models via Piecewise Rational
Optimization [27.080837460030583]
劣化した信号を非線形歪みと限られたサンプリングレートで再構成する手法を提案する。
本手法は,不正確な適合項と罰則として定式化する。
シミュレーションの利点の観点から,この問題の活用方法を示す。
論文 参考訳(メタデータ) (2020-10-29T09:05:19Z) - A Feasible Level Proximal Point Method for Nonconvex Sparse Constrained
Optimization [25.73397307080647]
本稿では,汎用凸あるいは非汎用機械目標の新しいモデルを提案する。
本稿では,各サブプロブレムの点レベルを徐々に緩和した制約を解くアルゴリズムを提案する。
我々は,新しい数値スケール問題の有効性を実証する。
論文 参考訳(メタデータ) (2020-10-23T05:24:05Z) - Semi-Supervised Learning with Meta-Gradient [123.26748223837802]
半教師付き学習における簡単なメタ学習アルゴリズムを提案する。
その結果,提案アルゴリズムは最先端の手法に対して良好に動作することがわかった。
論文 参考訳(メタデータ) (2020-07-08T08:48:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。