論文の概要: Rotation Averaging with Attention Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2010.06773v1
- Date: Wed, 14 Oct 2020 02:07:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-07 13:27:35.764210
- Title: Rotation Averaging with Attention Graph Neural Networks
- Title(参考訳): 注意グラフニューラルネットワークを用いた回転平均化
- Authors: Joshua Thorpe, Ruwan Tennakoon, Alireza Bab-Hadiashar
- Abstract要約: 大規模多重回転平均化のためのリアルタイム・ロバストな解法を提案する。
本手法では,ネットワーク設計における重み付け平均化とアテンション機構を用いて,すべての観測結果を用いて,異常値の影響を抑える。
その結果、より速く、より堅牢なネットワークとなり、以前のニューラルアプローチよりも少ないサンプルでトレーニングできる。
- 参考スコア(独自算出の注目度): 4.408728798697341
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper we propose a real-time and robust solution to large-scale
multiple rotation averaging. Until recently, Multiple rotation averaging
problem had been solved using conventional iterative optimization algorithms.
Such methods employed robust cost functions that were chosen based on
assumptions made about the sensor noise and outlier distribution. In practice,
these assumptions do not always fit real datasets very well. A recent work
showed that the noise distribution could be learnt using a graph neural
network. This solution required a second network for outlier detection and
removal as the averaging network was sensitive to a poor initialization. In
this paper we propose a single-stage graph neural network that can robustly
perform rotation averaging in the presence of noise and outliers. Our method
uses all observations, suppressing outliers effects through the use of weighted
averaging and an attention mechanism within the network design. The result is a
network that is faster, more robust and can be trained with less samples than
the previous neural approach, ultimately outperforming conventional iterative
algorithms in accuracy and in inference times.
- Abstract(参考訳): 本稿では,大規模多重回転平均化に対するリアルタイムかつロバストな解法を提案する。
最近まで、従来の反復最適化アルゴリズムを用いて多重回転平均問題は解決されていた。
このような方法は、センサノイズと異常分布に関する仮定に基づいて選択されたロバストなコスト関数を用いた。
実際には、これらの仮定は必ずしも実際のデータセットに適合しない。
最近の研究では、グラフニューラルネットワークを用いてノイズ分布を学習できることが示されている。
この解法では、平均化ネットワークが貧弱な初期化に敏感であるため、異常検出と除去のための第2のネットワークが必要であった。
本稿では,雑音や異常値の存在下でロバストに回転平均化を行うことのできる単段グラフニューラルネットワークを提案する。
本手法では,ネットワーク設計における重み付け平均化とアテンション機構を用いて,すべての観測結果を用いて,外乱効果を抑制する。
その結果、より高速で堅牢で、従来のニューラルネットワークよりも少ないサンプルでトレーニングすることが可能なネットワークが、従来の反復アルゴリズムを精度と推論時間で上回っている。
関連論文リスト
- Adaptive Sampling for Deep Learning via Efficient Nonparametric Proxies [35.29595714883275]
我々は,Nadaraya-Watson推定器に対する効率的なスケッチベース近似を開発した。
サンプリングアルゴリズムは,4つのデータセットに対して,壁面時間と精度でベースラインを上回っている。
論文 参考訳(メタデータ) (2023-11-22T18:40:18Z) - Deep Neural Networks Tend To Extrapolate Predictably [51.303814412294514]
ニューラルネットワークの予測は、アウト・オブ・ディストリビューション(OOD)入力に直面した場合、予測不可能で過信される傾向がある。
我々は、入力データがOODになるにつれて、ニューラルネットワークの予測が一定値に向かう傾向があることを観察する。
我々は、OOD入力の存在下でリスクに敏感な意思決定を可能にするために、私たちの洞察を実際に活用する方法を示します。
論文 参考訳(メタデータ) (2023-10-02T03:25:32Z) - Towards Better Out-of-Distribution Generalization of Neural Algorithmic
Reasoning Tasks [51.8723187709964]
ニューラルネットワーク推論タスクのOOD一般化について検討する。
目標は、ディープニューラルネットワークを使用して入出力ペアからアルゴリズムを学ぶことである。
論文 参考訳(メタデータ) (2022-11-01T18:33:20Z) - Distribution Mismatch Correction for Improved Robustness in Deep Neural
Networks [86.42889611784855]
正規化法は ノイズや入力の腐敗に関して 脆弱性を増大させる
本稿では,各層の活性化分布に適応する非教師なし非パラメトリック分布補正法を提案する。
実験により,提案手法は画像劣化の激しい影響を効果的に低減することを示した。
論文 参考訳(メタデータ) (2021-10-05T11:36:25Z) - SignalNet: A Low Resolution Sinusoid Decomposition and Estimation
Network [79.04274563889548]
本稿では,正弦波数を検出するニューラルネットワークアーキテクチャであるSignalNetを提案する。
基礎となるデータ分布と比較して,ネットワークの結果を比較するための最悪の学習しきい値を導入する。
シミュレーションでは、我々のアルゴリズムは常に3ビットデータのしきい値を超えることができるが、しばしば1ビットデータのしきい値を超えることはできない。
論文 参考訳(メタデータ) (2021-06-10T04:21:20Z) - Hyperdimensional Computing for Efficient Distributed Classification with
Randomized Neural Networks [5.942847925681103]
本研究では,データを中央に保存することも共有することもできない状況下で利用できる分散分類について検討する。
ローカルな分類器を他のエージェントと共有する場合に、ロッキーな圧縮アプローチを適用することにより、分散分類のためのより効率的な解を提案する。
論文 参考訳(メタデータ) (2021-06-02T01:33:56Z) - Anomaly Detection in Image Datasets Using Convolutional Neural Networks,
Center Loss, and Mahalanobis Distance [0.0]
ユーザーアクティビティは、品質や無関係な画像やデータベクターのかなりの数を生成します。
ニューラルネットワークの場合、異常は通常分布外サンプルとして定義される。
本研究では,画像データセットにおける非分布サンプルの監督的および半監督的検出手法を提案する。
論文 参考訳(メタデータ) (2021-04-13T13:44:03Z) - Reduced-Order Neural Network Synthesis with Robustness Guarantees [0.0]
機械学習アルゴリズムは、デバイスがユーザのプライバシを改善し、レイテンシを低減し、エネルギー効率を高めるために、ローカルで実行するように適応されている。
この問題に対処するために、より大きなニューロンの入出力マッピングを近似する低次ニューラルネットワーク(ニューロンが少ない)を自動的に合成する手法を導入する。
この近似誤差に対する最悪の境界が得られ、このアプローチは幅広いニューラルネットワークアーキテクチャに適用することができる。
論文 参考訳(メタデータ) (2021-02-18T12:03:57Z) - Bandit Samplers for Training Graph Neural Networks [63.17765191700203]
グラフ畳み込みネットワーク(GCN)の訓練を高速化するために, ばらつきを低減したサンプリングアルゴリズムが提案されている。
これらのサンプリングアルゴリズムは、グラフ注意ネットワーク(GAT)のような固定重みよりも学習重量を含む、より一般的なグラフニューラルネットワーク(GNN)には適用できない。
論文 参考訳(メタデータ) (2020-06-10T12:48:37Z) - MSE-Optimal Neural Network Initialization via Layer Fusion [68.72356718879428]
ディープニューラルネットワークは、さまざまな分類と推論タスクに対して最先端のパフォーマンスを達成する。
グラデーションと非進化性の組み合わせは、学習を新しい問題の影響を受けやすいものにする。
確率変数を用いて学習した深層ネットワークの近傍層を融合する手法を提案する。
論文 参考訳(メタデータ) (2020-01-28T18:25:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。