論文の概要: Obstacle-aware Gaussian Process Regression
- arxiv url: http://arxiv.org/abs/2412.06160v1
- Date: Mon, 09 Dec 2024 02:50:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-10 14:56:50.072240
- Title: Obstacle-aware Gaussian Process Regression
- Title(参考訳): 障害物対応ガウス過程回帰
- Authors: Gaurav Shrivastava,
- Abstract要約: 障害物を意識した軌道ナビゲーションは多くのシステムにとって不可欠である。
ガウス過程の回帰は、現在の形式では、曲線を一連のデータ対に適合させる。
負のデータ対にモデルを適合させる「GP-ND(Gaussian Process with Negative Datapairs)」を提案する。
- 参考スコア(独自算出の注目度): 3.2634122554914002
- License:
- Abstract: Obstacle-aware trajectory navigation is crucial for many systems. For example, in real-world navigation tasks, an agent must avoid obstacles, such as furniture in a room, while planning a trajectory. Gaussian Process (GP) regression, in its current form, fits a curve to a set of data pairs, with each pair consisting of an input point 'x' and its corresponding target regression value 'y(x)' (a positive data pair). However, to account for obstacles, we need to constrain the GP to avoid a target regression value 'y(x-)' for an input point 'x-' (a negative data pair). Our proposed approach, 'GP-ND' (Gaussian Process with Negative Datapairs), fits the model to the positive data pairs while avoiding the negative ones. Specifically, we model the negative data pairs using small blobs of Gaussian distribution and maximize their KL divergence from the GP. Our framework jointly optimizes for both positive and negative data pairs. Our experiments show that GP-ND outperforms traditional GP learning. Additionally, our framework does not affect the scalability of Gaussian Process regression and helps the model converge faster as the data size increases.
- Abstract(参考訳): 障害物を意識した軌道ナビゲーションは多くのシステムにとって不可欠である。
例えば、現実世界のナビゲーションタスクでは、エージェントは、軌道を計画しながら、部屋の家具のような障害物を避ける必要がある。
ガウス過程(GP)回帰は、現在の形式では、入力点'x'とその対応する目標回帰値'y(x)'(正のデータ対)からなる一連のデータ対に曲線を適合させる。
しかし,障害を考慮した場合,入力点「x-」(負のデータ対)に対する目標回帰値「y(x-)」を回避するためにGPを制約する必要がある。
提案手法であるGP-ND (Gaussian Process with Negative Datapairs) は, 負のデータを回避しながら正のデータ対に適合する。
具体的には、ガウス分布の小さなブロブを用いて負のデータペアをモデル化し、GPからのKLの発散を最大化する。
我々のフレームワークは、正と負の両方のデータペアを共同で最適化する。
実験の結果,GP-NDは従来のGP学習よりも優れていた。
さらに、我々のフレームワークはガウス的プロセス回帰のスケーラビリティに影響を与えず、データサイズが大きくなるにつれてモデルをより早く収束させるのに役立つ。
関連論文リスト
- Computation-Aware Gaussian Processes: Model Selection And Linear-Time Inference [55.150117654242706]
我々は、1.8万のデータポイントでトレーニングされた計算対応GPのモデル選択が、1つのGPU上で数時間以内に可能であることを示す。
この研究の結果、ガウス過程は、不確実性を定量化する能力を著しく妥協することなく、大規模なデータセットで訓練することができる。
論文 参考訳(メタデータ) (2024-11-01T21:11:48Z) - Highly Adaptive Ridge [84.38107748875144]
直交可積分な部分微分を持つ右連続函数のクラスにおいて,$n-2/3$自由次元L2収束率を達成する回帰法を提案する。
Harは、飽和ゼロオーダーテンソル積スプライン基底展開に基づいて、特定のデータ適応型カーネルで正確にカーネルリッジレグレッションを行う。
我々は、特に小さなデータセットに対する最先端アルゴリズムよりも経験的性能が優れていることを示す。
論文 参考訳(メタデータ) (2024-10-03T17:06:06Z) - Scaling Laws in Linear Regression: Compute, Parameters, and Data [86.48154162485712]
無限次元線形回帰セットアップにおけるスケーリング法則の理論について検討する。
テストエラーの再現可能な部分は$Theta(-(a-1) + N-(a-1)/a)$であることを示す。
我々の理論は経験的ニューラルスケーリング法則と一致し、数値シミュレーションによって検証される。
論文 参考訳(メタデータ) (2024-06-12T17:53:29Z) - Leveraging Locality and Robustness to Achieve Massively Scalable
Gaussian Process Regression [1.3518297878940662]
GPN(Nest-Nighbour)予測の強靭性特性と制限挙動を探索することによって,新しい視点を導入する。
データサイズnが大きくなるにつれて、推定パラメータとGPモデル仮定の精度は、GPnn予測精度とますます無関係になる。
この不正確さの源泉を補正することができ、高い計算コストで精度の高い不確実性対策と正確な予測を両立できることを示す。
論文 参考訳(メタデータ) (2023-06-26T14:32:46Z) - Pseudo-Labeling for Kernel Ridge Regression under Covariate Shift [1.3597551064547502]
対象分布に対する平均2乗誤差が小さい回帰関数を,ラベルなしデータと異なる特徴分布を持つラベル付きデータに基づいて学習する。
ラベル付きデータを2つのサブセットに分割し、カーネルリッジの回帰処理を行い、候補モデルの集合と計算モデルを得る。
モデル選択に擬似ラベルを用いることで性能を著しく損なうことはないことが判明した。
論文 参考訳(メタデータ) (2023-02-20T18:46:12Z) - Non-Gaussian Gaussian Processes for Few-Shot Regression [71.33730039795921]
乱変数ベクトルの各成分上で動作し,パラメータを全て共有する可逆なODEベースのマッピングを提案する。
NGGPは、様々なベンチマークとアプリケーションに対する競合する最先端のアプローチよりも優れています。
論文 参考訳(メタデータ) (2021-10-26T10:45:25Z) - Regression Bugs Are In Your Model! Measuring, Reducing and Analyzing
Regressions In NLP Model Updates [68.09049111171862]
この研究は、NLPモデル更新における回帰エラーの定量化、低減、分析に重点を置いている。
回帰フリーモデル更新を制約付き最適化問題に定式化する。
モデルアンサンブルが回帰を減らす方法を実証的に分析します。
論文 参考訳(メタデータ) (2021-05-07T03:33:00Z) - MuyGPs: Scalable Gaussian Process Hyperparameter Estimation Using Local
Cross-Validation [1.2233362977312945]
本稿では,新しいGPハイパーパラメータ推定法であるMuyGPを提案する。
MuyGPsは、データの最も近い隣人構造を利用する事前のメソッドの上に構築される。
提案手法は, 解法と予測値の平均二乗誤差の両方において, 既知の競合よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-04-29T18:10:21Z) - A Hypergradient Approach to Robust Regression without Correspondence [85.49775273716503]
本稿では,入力データと出力データとの対応が不十分な回帰問題について考察する。
ほとんどの既存手法はサンプルサイズが小さい場合にのみ適用できる。
シャッフル回帰問題に対する新しい計算フレームワークであるROBOTを提案する。
論文 参考訳(メタデータ) (2020-11-30T21:47:38Z) - Robust Gaussian Process Regression Based on Iterative Trimming [6.912744078749024]
本稿では、最も極端なデータポイントを反復的にトリムする、新しい頑健なGP回帰アルゴリズムを提案する。
極端または豊富な外れ値が存在する場合でも、汚染されたデータのモデル精度を大幅に向上させることができる。
天体物理学的な研究の実践例として、星団の色-マグニチュード図の主系列尾根線を正確に決定できることが示されている。
論文 参考訳(メタデータ) (2020-11-22T16:43:35Z) - Robust Gaussian Process Regression with a Bias Model [0.6850683267295248]
既存のほとんどのアプローチは、重い尾の分布から誘導される非ガウス的確率に、外れやすいガウス的確率を置き換えるものである。
提案手法は、未知の回帰関数の雑音および偏りの観測として、外れ値をモデル化する。
バイアス推定に基づいて、ロバストなGP回帰を標準のGP回帰問題に還元することができる。
論文 参考訳(メタデータ) (2020-01-14T06:21:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。