論文の概要: [Reproducibility Report] Path Planning using Neural A* Search
- arxiv url: http://arxiv.org/abs/2208.04153v1
- Date: Sat, 16 Jul 2022 17:25:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-14 18:23:48.588053
- Title: [Reproducibility Report] Path Planning using Neural A* Search
- Title(参考訳): ニューラルa*探索を用いた[再現性報告]経路計画
- Authors: Shreya Bhatt, Aayush Jain, Parv Maheshwari, Animesh Jha, Debashish
Chakravarty
- Abstract要約: 本稿では,ML再現性チャレンジ2021の一環としてICML2 2021で発表された"Path Planning using Neural A* Search"について報告する。
元の論文ではニューラルA*プランナを提案し,ノード拡張の削減とパス精度の最適バランスを実現する。
我々は、異なるフレームワークでモデルを再実装し、元の論文で公開されたデータを再現することで、この主張を検証する。
- 参考スコア(独自算出の注目度): 6.397596418719369
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The following paper is a reproducibility report for "Path Planning using
Neural A* Search" published in ICML2 2021 as part of the ML Reproducibility
Challenge 2021. The original paper proposes the Neural A* planner, and claims
it achieves an optimal balance between the reduction of node expansions and
path accuracy. We verify this claim by reimplementing the model in a different
framework and reproduce the data published in the original paper. We have also
provided a code-flow diagram to aid comprehension of the code structure. As
extensions to the original paper, we explore the effects of (1) generalizing
the model by training it on a shuffled dataset, (2) introducing dropout, (3)
implementing empirically chosen hyperparameters as trainable parameters in the
model, (4) altering the network model to Generative Adversarial Networks (GANs)
to introduce stochasticity, (5) modifying the encoder from Unet to Unet++, (6)
incorporating cost maps obtained from the Neural A* module in other variations
of A* search.
- Abstract(参考訳): 下記の論文は、ICML2 2021で発表されたML再現性チャレンジ2021の一部として、"Path Planning using Neural A* Search"の再現性レポートである。
元々の論文はニューラルa*プランナーを提案し、ノード展開の削減とパス精度の最適なバランスを達成すると主張している。
我々は、異なるフレームワークでモデルを再実装し、元の論文で公開されたデータを再現することで、この主張を検証する。
コード構造を理解するのに役立つコードフロー図も提供しています。
原論文の拡張として,(1)シャッフルデータセット上でモデルをトレーニングしてモデルを一般化すること,(2)ドロップアウトの導入,(3)モデル内のトレーニング可能なパラメータとして経験的に選択されたハイパーパラメータを実装すること,(4)ネットワークモデルをGANに変更して確率性を導入すること,(5)エンコーダをUnetからUnet++に変更すること,(6)A*探索の他のバリエーションでNeural A*モジュールから得られたコストマップを組み込んだこと,などが検討されている。
関連論文リスト
- Steering Masked Discrete Diffusion Models via Discrete Denoising Posterior Prediction [88.65168366064061]
本稿では,確率論的推論の課題として,事前学習したMDMを操る作業を行う新しいフレームワークであるDDPPを紹介する。
私たちのフレームワークは、3つの新しい目標のファミリーにつながります。
Wet-lab Validation(ウェット・ラブ・バリデーション)を用いて,報酬最適化タンパク質配列の過渡的発現を観察する。
論文 参考訳(メタデータ) (2024-10-10T17:18:30Z) - Sub-graph Based Diffusion Model for Link Prediction [43.15741675617231]
拡散確率モデル(Denoising Diffusion Probabilistic Models, DDPM)は、例外的な品質を持つ同時代の生成モデルである。
本研究では,ベイズ式による確率推定過程を分解するために,専用設計を用いたリンク予測のための新しい生成モデルを構築した。
提案手法は,(1)再トレーニングを伴わないデータセット間の転送可能性,(2)限られたトレーニングデータに対する有望な一般化,(3)グラフ敵攻撃に対する堅牢性など,多くの利点を示す。
論文 参考訳(メタデータ) (2024-09-13T02:23:55Z) - Joint Bayesian Inference of Graphical Structure and Parameters with a
Single Generative Flow Network [59.79008107609297]
本稿では,ベイジアンネットワークの構造上の結合後部を近似する手法を提案する。
サンプリングポリシが2フェーズプロセスに従う単一のGFlowNetを使用します。
パラメータは後部分布に含まれるため、これは局所確率モデルに対してより柔軟である。
論文 参考訳(メタデータ) (2023-05-30T19:16:44Z) - Deep Graph Reprogramming [112.34663053130073]
グラフニューラルネットワーク(GNN)に適したタスク再利用モデル「ディープグラフ再プログラミング」
本稿では,モデル再プログラミングパラダイムと並行して,革新的なデータ再プログラミングパラダイムを提案する。
論文 参考訳(メタデータ) (2023-04-28T02:04:29Z) - Learning to Learn with Generative Models of Neural Network Checkpoints [71.06722933442956]
ニューラルネットワークのチェックポイントのデータセットを構築し,パラメータの生成モデルをトレーニングする。
提案手法は,幅広い損失プロンプトに対するパラメータの生成に成功している。
我々は、教師付きおよび強化学習における異なるニューラルネットワークアーキテクチャとタスクに本手法を適用した。
論文 参考訳(メタデータ) (2022-09-26T17:59:58Z) - uGLAD: Sparse graph recovery by optimizing deep unrolled networks [11.48281545083889]
深層ネットワークを最適化してスパースグラフ復元を行う新しい手法を提案する。
我々のモデルであるuGLADは、最先端モデルGLADを教師なし設定に構築し、拡張します。
我々は, 遺伝子調節ネットワークから生成した合成ガウスデータ, 非ガウスデータを用いて, モデル解析を行い, 嫌気性消化の事例研究を行った。
論文 参考訳(メタデータ) (2022-05-23T20:20:27Z) - Assemble Foundation Models for Automatic Code Summarization [9.53949558569201]
ニューラルネットワークに基づく自動コード要約のためのフレキシブルでロバストなアプローチを提案する。
CodeBERT や GPT-2 のような利用可能な基盤モデルを AdaMo という単一のモデルに組み立てる。
本稿では,知識伝達の観点から,連続事前学習と中間微調整という2つの適応型スキームを導入する。
論文 参考訳(メタデータ) (2022-01-13T21:38:33Z) - Sparsely constrained neural networks for model discovery of PDEs [0.0]
本稿では,任意のスパース回帰手法を用いて,ディープラーニングに基づくサロゲートのスパースパターンを決定するモジュラーフレームワークを提案する。
異なるネットワークアーキテクチャと疎度推定器がモデル発見精度と収束性を,いくつかのベンチマーク例でどのように改善するかを示す。
論文 参考訳(メタデータ) (2020-11-09T11:02:40Z) - Learning Noise-Aware Encoder-Decoder from Noisy Labels by Alternating
Back-Propagation for Saliency Detection [54.98042023365694]
本稿では,ノイズを考慮したエンコーダ・デコーダ・フレームワークを提案する。
提案モデルはニューラルネットワークによってパラメータ化された2つのサブモデルから構成される。
論文 参考訳(メタデータ) (2020-07-23T18:47:36Z) - Pre-Trained Models for Heterogeneous Information Networks [57.78194356302626]
異種情報ネットワークの特徴を捉えるための自己教師付き事前学習・微調整フレームワークPF-HINを提案する。
PF-HINは4つのデータセットにおいて、各タスクにおける最先端の代替よりも一貫して、大幅に優れています。
論文 参考訳(メタデータ) (2020-07-07T03:36:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。