論文の概要: Inverting Non-Injective Functions with Twin Neural Network Regression
- arxiv url: http://arxiv.org/abs/2601.05378v1
- Date: Thu, 08 Jan 2026 21:04:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-12 17:41:49.771682
- Title: Inverting Non-Injective Functions with Twin Neural Network Regression
- Title(参考訳): 2つのニューラルネットワークの回帰による非射影関数の反転
- Authors: Sebastian J. Wetzel,
- Abstract要約: 非単射関数の所定の対象変数に対する入力パラメータを求めるフレームワークを提案する。
本手法は,玩具問題とロボットアーム制御を記述した非インジェクティブ関数を反転させることで実証する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Non-injective functions are not invertible. However, non-injective functions can be restricted to sub-domains on which they are locally injective and surjective and thus invertible if the dimensionality between input and output spaces are the same. Further, even if the dimensionalities do not match it is often possible to choose a preferred solution from many possible solutions. Twin neural network regression is naturally capable of incorporating these properties to invert non-injective functions. Twin neural network regression is trained to predict adjustments to well known input variables $\mathbf{x}^{\text{anchor}}$ to obtain an estimate for an unknown $\mathbf{x}^{\text{new}}$ under a change of the target variable from $\mathbf{y}^{\text{anchor}}$ to $\mathbf{y}^{\text{new}}$. In combination with k-nearest neighbor search, I propose a deterministic framework that finds input parameters to a given target variable of non-injective functions. The method is demonstrated by inverting non-injective functions describing toy problems and robot arm control that are a) defined by data or b) known as mathematical formula.
- Abstract(参考訳): 非射影関数は可逆ではない。
しかし、非射影関数は局所単射かつ全射であり、従って入力空間と出力空間の間の次元が同じであれば可逆である部分領域に制限することができる。
さらに、次元が一致しないとしても、多くの可能な解から望ましい解を選択することはしばしば可能である。
ツインニューラルネットワークの回帰は、自然にこれらの特性を非射影関数の反転に組み込むことができる。
ツインニューラルネットワーク回帰は、未知の$\mathbf{x}^{\text{new}}$から$\mathbf{y}^{\text{anchor}}$から$\mathbf{y}^{\text{new}}$へのターゲット変数の変更の下で、未知の$\mathbf{x}^{\text{new}}$の見積もりを得るために、よく知られた入力変数の調整を予測するために訓練される。
k-nearest 近傍探索と組み合わせて,非単射関数の所定の対象変数に対する入力パラメータを求める決定論的フレームワークを提案する。
本手法は,玩具問題とロボットアーム制御を記述した非インジェクティブ関数を反転させることにより実証する。
a) データまたはによって定義される
b) 数学的公式として知られる。
関連論文リスト
- Optimal Neural Network Approximation for High-Dimensional Continuous Functions [5.748690310135373]
我々は、その近似において任意の精度を達成するために、少なくとも幅$d$、従って少なくとも$d$のニューロンやパラメータを必要とする連続関数の族を示す。
これは、パラメータが$d$で指数関数的に成長するいくつかの近似方法とは異なり、入力次元$d$で線形に成長するという意味では、非ゼロパラメータの数が最適であることを示している。
論文 参考訳(メタデータ) (2024-09-04T01:18:55Z) - When big data actually are low-rank, or entrywise approximation of certain function-generated matrices [0.0]
この記事は、2$m$次元変数の滑らかな関数をサンプリングすることによって生成される行列の低ランク近似に関するものである。
特定の解析関数のクラスに対して、そのような$n times n$行列は、$m$とは独立で$log(n)$として成長するランクの正確なエントリーワイド近似を認めるという主張を取り巻くいくつかの誤解を特定する。
論文 参考訳(メタデータ) (2024-07-03T16:29:47Z) - A Galois theorem for machine learning: Functions on symmetric matrices and point clouds via lightweight invariant features [26.619014249559942]
対称行列と点雲上の関数の機械学習のための数学的定式化を提案する。
ガロア理論にインスパイアされたアイデアを用いて、一般的に不変な特徴を分離する一般的な構成を提供する。
我々は、不変な特徴の数が、表現性を失うことなく総称的に$O(n)$に還元できることを証明している。
論文 参考訳(メタデータ) (2024-05-13T18:24:03Z) - Size and Depth Separation in Approximating Natural Functions with Neural
Networks [52.73592689730044]
本稿では,ReLUネットワークを用いた自然関数の近似におけるサイズと深さの利点を示す。
我々は、そのような結果が$O(d)$を超えることを証明するための複雑性理論上の障壁を示す。
また、サイズ$O(d)$のネットワークで近似できる明示的な自然関数も示している。
論文 参考訳(メタデータ) (2021-01-30T21:30:11Z) - On the Modularity of Hypernetworks [103.1147622394852]
構造化対象関数の場合、ハイパーネットワークにおけるトレーニング可能なパラメータの総数は、標準ニューラルネットワークのトレーニング可能なパラメータの数や埋め込み法よりも桁違いに小さいことを示す。
論文 参考訳(メタデータ) (2020-02-23T22:51:52Z) - Neural Bayes: A Generic Parameterization Method for Unsupervised
Representation Learning [175.34232468746245]
本稿ではニューラルベイズと呼ばれるパラメータ化手法を提案する。
これは一般に計算が難しい統計量の計算を可能にする。
このパラメータ化のための2つの独立したユースケースを示す。
論文 参考訳(メタデータ) (2020-02-20T22:28:53Z) - Complexity of Finding Stationary Points of Nonsmooth Nonconvex Functions [84.49087114959872]
非滑らかで非滑らかな関数の定常点を見つけるための最初の非漸近解析を提供する。
特に、アダマール半微分可能函数(おそらく非滑らか関数の最大のクラス)について研究する。
論文 参考訳(メタデータ) (2020-02-10T23:23:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。