論文の概要: Convex and Nonconvex Sublinear Regression with Application to
Data-driven Learning of Reach Sets
- arxiv url: http://arxiv.org/abs/2210.01919v1
- Date: Tue, 4 Oct 2022 21:42:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-07 16:08:51.320859
- Title: Convex and Nonconvex Sublinear Regression with Application to
Data-driven Learning of Reach Sets
- Title(参考訳): 凸・非凸サブ線形回帰とリーチ集合のデータ駆動学習への応用
- Authors: Shadi Haddad and Abhishek Halder
- Abstract要約: 部分回帰によって設定される関数関数を近似することにより、有限データのコンパクトな集合を推定することを検討する。
サブ線形回帰を行うための2つのアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 1.0965065178451106
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider estimating a compact set from finite data by approximating the
support function of that set via sublinear regression. Support functions
uniquely characterize a compact set up to closure of convexification, and are
sublinear (convex as well as positive homogeneous of degree one). Conversely,
any sublinear function is the support function of a compact set. We leverage
this property to transcribe the task of learning a compact set to that of
learning its support function. We propose two algorithms to perform the
sublinear regression, one via convex and another via nonconvex programming. The
convex programming approach involves solving a quadratic program (QP) followed
by a linear program (LP), and is referred to as QP-LP. The nonconvex
programming approach involves training a input sublinear neural network. We
illustrate the proposed methods via numerical examples on learning the reach
sets of controlled dynamics subject to set-valued input uncertainties from
trajectory data.
- Abstract(参考訳): 有限データからその集合の支持関数を線形回帰を用いて近似することによりコンパクト集合を推定する。
サポート関数は、凸化の閉包を構成するコンパクト集合を一意的に特徴付け、部分線型である(凸と次数 1 の正等質)。
逆に、任意の部分線型函数はコンパクト集合の支持函数である。
この特性を利用して、コンパクトな集合を学習するタスクを、そのサポート関数を学ぶタスクに書き起こす。
本研究では,非凸計画による部分線形回帰を行う2つのアルゴリズムを提案する。
凸プログラミングのアプローチは、二次プログラム(QP)を解き、次いで線形プログラム(LP)を解き、QP-LPと呼ばれる。
非凸プログラミングアプローチでは、入力サブ線形ニューラルネットワークをトレーニングする。
提案手法は,軌道データから設定値の入力不確実性を受ける制御力学の到達集合を学習するための数値例を用いて記述する。
関連論文リスト
- Mapping-to-Parameter Nonlinear Functional Regression with Novel B-spline
Free Knot Placement Algorithm [12.491024918270824]
非線形機能回帰に対する新しいアプローチを提案する。
このモデルは無限次元関数空間から有限次元パラメータ空間への関数データのマッピングに基づいている。
結び目配置アルゴリズムの性能は, 単一関数近似と多関数近似の両方において堅牢であることが示されている。
論文 参考訳(メタデータ) (2024-01-26T16:35:48Z) - Pessimistic Nonlinear Least-Squares Value Iteration for Offline Reinforcement Learning [53.97335841137496]
非線形関数近似を用いたオフラインRLにおけるPNLSVI(Pessimistic Least-Square Value Iteration)と呼ばれるオラクル効率のアルゴリズムを提案する。
本アルゴリズムは,関数クラスの複雑性に強く依存する後悔境界を享受し,線形関数近似に特化して最小限のインスタンス依存後悔を実現する。
論文 参考訳(メタデータ) (2023-10-02T17:42:01Z) - Offline Reinforcement Learning with Differentiable Function
Approximation is Provably Efficient [65.08966446962845]
歴史的データを用いて意思決定戦略を最適化することを目的としたオフライン強化学習は、現実の応用に広く適用されている。
微分関数クラス近似(DFA)を用いたオフライン強化学習の検討から一歩踏み出した。
最も重要なことは、悲観的な適合Q-ラーニングアルゴリズムを解析することにより、オフライン微分関数近似が有効であることを示すことである。
論文 参考訳(メタデータ) (2022-10-03T07:59:42Z) - Stabilizing Q-learning with Linear Architectures for Provably Efficient
Learning [53.17258888552998]
本研究では,線形関数近似を用いた基本的な$Q$-learningプロトコルの探索変種を提案する。
このアルゴリズムの性能は,新しい近似誤差というより寛容な概念の下で,非常に優雅に低下することを示す。
論文 参考訳(メタデータ) (2022-06-01T23:26:51Z) - Nonlinear Level Set Learning for Function Approximation on Sparse Data
with Applications to Parametric Differential Equations [6.184270985214254]
NLL(Nonlinear Level Set Learning)アプローチは、疎にサンプリングされた関数のポイントワイズ予測のために提示される。
提案アルゴリズムは, 精度の低い理論的下界への入力次元を効果的に低減する。
この修正されたNLLとオリジナルのNLLとActive Subspaces(AS)メソッドを比較する実験とアプリケーションを提示する。
論文 参考訳(メタデータ) (2021-04-29T01:54:05Z) - Hybrid Trilinear and Bilinear Programming for Aligning Partially
Overlapping Point Sets [85.71360365315128]
多くの応用において、部分重なり合う点集合が対応するRPMアルゴリズムに不変であるようなアルゴリズムが必要である。
まず、目的が立方体有界関数であることを示し、次に、三線型および双線型単相変換の凸エンベロープを用いて、その下界を導出する。
次に、変換変数上の分岐のみを効率よく実行するブランチ・アンド・バウンド(BnB)アルゴリズムを開発する。
論文 参考訳(メタデータ) (2021-01-19T04:24:23Z) - Ridge regression with adaptive additive rectangles and other piecewise
functional templates [0.0]
関数線形回帰モデルに対する$L_2$ベースのペナル化アルゴリズムを提案する。
提案アルゴリズムは,適切なテンプレートの近似と凸リッジのような問題の解法とを交互に行う方法を示す。
論文 参考訳(メタデータ) (2020-11-02T15:28:54Z) - Piecewise Linear Regression via a Difference of Convex Functions [50.89452535187813]
本稿では,データに対する凸関数(DC関数)の差を利用した線形回帰手法を提案する。
実際に実装可能であることを示すとともに,実世界のデータセット上で既存の回帰/分類手法に匹敵する性能を有することを実証的に検証した。
論文 参考訳(メタデータ) (2020-07-05T18:58:47Z) - Linear Regression without Correspondences via Concave Minimization [24.823689223437917]
信号は、対応のない線形回帰設定で復元される。
関連する最大可能性関数は、信号が1より大きい次元を持つとき、NPハードで計算する。
我々はこれを凹凸最小化問題として再定義し、分岐とバウンドによって解決する。
結果として得られたアルゴリズムは、完全にシャッフルされたデータに対して最先端の手法より優れており、最大8ドルの信号で抽出可能である。
論文 参考訳(メタデータ) (2020-03-17T13:19:23Z) - Semiparametric Nonlinear Bipartite Graph Representation Learning with
Provable Guarantees [106.91654068632882]
半パラメトリック指数族分布におけるパラメータの統計的推定問題として、両部グラフを考察し、その表現学習問題を定式化する。
提案手法は, 地中真理付近で強い凸性を示すため, 勾配降下法が線形収束率を達成できることを示す。
我々の推定器は指数族内の任意のモデル誤特定に対して頑健であり、広範な実験で検証されている。
論文 参考訳(メタデータ) (2020-03-02T16:40:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。