論文の概要: DisGNet: A Distance Graph Neural Network for Forward Kinematics Learning
of Gough-Stewart Platform
- arxiv url: http://arxiv.org/abs/2402.09077v1
- Date: Wed, 14 Feb 2024 10:40:09 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-15 15:53:37.174551
- Title: DisGNet: A Distance Graph Neural Network for Forward Kinematics Learning
of Gough-Stewart Platform
- Title(参考訳): DisGNet:Gough-Stewartプラットフォームの前方運動学学習のための距離グラフニューラルネットワーク
- Authors: Huizhi Zhu, Wenxia Xu, Jian Huang and Jiaxin Li
- Abstract要約: 本稿では,グラフ距離行列を学習するためのグラフニューラルネットワークDisGNetを提案する。
DisGNetは、k-FWLアルゴリズムをメッセージパッシングに用い、少ないパラメータ数で高い表現性を提供する。
本稿では,DGNetの出力ポーズを改良し,超高精度なポーズを実現するために,GPUフレンドリーなNewton-Raphson法を提案する。
- 参考スコア(独自算出の注目度): 10.376817600473386
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we propose a graph neural network, DisGNet, for learning the
graph distance matrix to address the forward kinematics problem of the
Gough-Stewart platform. DisGNet employs the k-FWL algorithm for
message-passing, providing high expressiveness with a small parameter count,
making it suitable for practical deployment. Additionally, we introduce the
GPU-friendly Newton-Raphson method, an efficient parallelized optimization
method executed on the GPU to refine DisGNet's output poses, achieving
ultra-high-precision pose. This novel two-stage approach delivers ultra-high
precision output while meeting real-time requirements. Our results indicate
that on our dataset, DisGNet can achieves error accuracys below 1mm and 1deg at
79.8\% and 98.2\%, respectively. As executed on a GPU, our two-stage method can
ensure the requirement for real-time computation. Codes are released at
https://github.com/FLAMEZZ5201/DisGNet.
- Abstract(参考訳): 本稿では,グラフ距離行列を学習し,Gough-Stewartプラットフォームの前方運動学問題に対処するグラフニューラルネットワークであるDisGNetを提案する。
DisGNetはk-FWLアルゴリズムをメッセージパッシングに用い、小さなパラメータ数で高い表現性を提供し、実用的な展開に適している。
さらに,DGNetの出力ポーズを改良し,超高精度なポーズを実現するために,GPU上で効率的な並列化最適化手法であるNewton-Raphson法を導入する。
この新しい2段階のアプローチは、リアルタイム要件を満たしながら超高精度な出力を提供する。
以上の結果から,disgnet は 1mm 以下の誤差精度を 79.8\% と 98.2\% で達成できることがわかった。
GPU上で実行されるように、2段階の手法はリアルタイム計算の要求を確実にする。
コードはhttps://github.com/flamezz5201/disgnetでリリースされる。
関連論文リスト
- Slicing Input Features to Accelerate Deep Learning: A Case Study with Graph Neural Networks [0.24578723416255746]
本稿では,機能スライスされた大規模グラフ学習手法であるSliceGCNを紹介する。
これは、ミニバッチトレーニングに典型的な精度損失を回避し、GPU間通信を減らすことを目的としている。
6つのノード分類データセットで実験を行い、興味深い分析結果を得た。
論文 参考訳(メタデータ) (2024-08-21T10:18:41Z) - MultiScale MeshGraphNets [65.26373813797409]
我々はMeshGraphNetsからフレームワークを改善するための2つの補完的なアプローチを提案する。
まず、より粗いメッシュ上で高解像度システムの正確なサロゲートダイナミクスを学習できることを実証する。
次に、2つの異なる解像度でメッセージを渡す階層的アプローチ(MultiScale MeshGraphNets)を導入する。
論文 参考訳(メタデータ) (2022-10-02T20:16:20Z) - SCARA: Scalable Graph Neural Networks with Feature-Oriented Optimization [23.609017952951454]
グラフ計算のための特徴指向最適化を備えたスケーラブルグラフニューラルネットワーク(GNN)であるSCARAを提案する。
SCARAはノードの特徴からグラフの埋め込みを効率的に計算し、機能の結果を選択して再利用することでオーバーヘッドを減らします。
利用可能な最大10億のGNNデータセットであるPapers100M(1110万ノード、1.6Bエッジ)を100秒でプリ計算するのが効率的である。
論文 参考訳(メタデータ) (2022-07-19T10:32:11Z) - GraphVid: It Only Takes a Few Nodes to Understand a Video [0.0]
視覚的に意味のある特徴をグラフにエンコードするビデオの簡潔な表現を提案する。
我々は,スーパーピクセルをグラフノードとして考慮し,ビデオのスーパーピクセルベースグラフ表現を構築した。
グラフ畳み込みネットワークを利用して、この表現を処理し、所望の出力を予測する。
論文 参考訳(メタデータ) (2022-07-04T12:52:54Z) - Very Deep Graph Neural Networks Via Noise Regularisation [57.450532911995516]
グラフニューラルネットワーク(GNN)は、入力グラフを介して学習されたメッセージパッシングを実行する。
最大100のメッセージパッシングステップを持つディープGNNをトレーニングし、いくつかの最先端の結果を得る。
論文 参考訳(メタデータ) (2021-06-15T08:50:10Z) - GNNAutoScale: Scalable and Expressive Graph Neural Networks via
Historical Embeddings [51.82434518719011]
GNNAutoScale(GAS)は、任意のメッセージパスGNNを大規模グラフにスケールするためのフレームワークである。
ガスは、前回のトレーニングの繰り返しから過去の埋め込みを利用して計算グラフのサブツリー全体を掘り起こします。
ガスは大規模グラフ上で最先端のパフォーマンスに達する。
論文 参考訳(メタデータ) (2021-06-10T09:26:56Z) - Scalable Graph Neural Networks via Bidirectional Propagation [89.70835710988395]
グラフニューラルネットワーク(GNN)は、非ユークリッドデータを学習するための新興分野である。
本稿では、特徴ベクトルとトレーニング/テストノードの両方から局所的な双方向伝搬プロセスを利用するスケーラブルなGNNであるGBPを提案する。
実証実験により、GBPは、トレーニング/テスト時間を大幅に減らして最先端のパフォーマンスを達成することが示された。
論文 参考訳(メタデータ) (2020-10-29T08:55:33Z) - Scaling Graph Neural Networks with Approximate PageRank [64.92311737049054]
GNNにおける情報拡散の効率的な近似を利用したPPRGoモデルを提案する。
高速であることに加えて、PPRGoは本質的にスケーラブルであり、業界設定で見られるような大規模なデータセットに対して、自明に並列化することができる。
このグラフのすべてのノードに対するPPRGoのトレーニングとラベルの予測には1台のマシンで2分未満で、同じグラフ上の他のベースラインをはるかに上回ります。
論文 参考訳(メタデータ) (2020-07-03T09:30:07Z) - Fast Graph Attention Networks Using Effective Resistance Based Graph
Sparsification [70.50751397870972]
FastGATは、スペクトルスペーシフィケーションを用いて、注目に基づくGNNを軽量にし、入力グラフの最適プルーニングを生成する手法である。
我々は,ノード分類タスクのための大規模実世界のグラフデータセット上でFastGATを実験的に評価した。
論文 参考訳(メタデータ) (2020-06-15T22:07:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。