論文の概要: V-MORALS: Visual Morse Graph-Aided Estimation of Regions of Attraction in a Learned Latent Space
- arxiv url: http://arxiv.org/abs/2602.23524v2
- Date: Mon, 02 Mar 2026 02:17:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-03 15:39:04.011868
- Title: V-MORALS: Visual Morse Graph-Aided Estimation of Regions of Attraction in a Learned Latent Space
- Title(参考訳): V-MORALS:学習した潜在空間におけるトラクション領域の視覚的モースグラフによる推定
- Authors: Faiz Aladin, Ashwin Balasubramanian, Lars Lindemann, Daniel Seita,
- Abstract要約: 本稿では,学習潜在空間(V-MORALS)におけるトラクション領域の視覚的モースグラフによる推定について述べる。
V-MORALSは、所定のコントローラの下でシステムのイメージベースの軌跡のデータセットを取り込み、到達可能性分析のための潜在空間を学習する。
提案手法は,様々なシステムやコントローラに対してROAを計算可能な,よく定義されたモースグラフを生成することができる。
- 参考スコア(独自算出の注目度): 5.32797577230417
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reachability analysis has become increasingly important in robotics to distinguish safe from unsafe states. Unfortunately, existing reachability and safety analysis methods often fall short, as they typically require known system dynamics or large datasets to estimate accurate system models, are computationally expensive, and assume full state information. A recent method, called MORALS, aims to address these shortcomings by using topological tools to estimate Regions of Attraction (ROA) in a low-dimensional latent space. However, MORALS still relies on full state knowledge and has not been studied when only sensor measurements are available. This paper presents Visual Morse Graph-Aided Estimation of Regions of Attraction in a Learned Latent Space (V-MORALS). V-MORALS takes in a dataset of image-based trajectories of a system under a given controller, and learns a latent space for reachability analysis. Using this learned latent space, our method is able to generate well-defined Morse Graphs, from which we can compute ROAs for various systems and controllers. V-MORALS provides capabilities similar to the original MORALS architecture without relying on state knowledge, and using only high-level sensor data. Our project website is at: https://v-morals.onrender.com.
- Abstract(参考訳): 安全状態と安全状態とを区別するロボット工学において、到達可能性の分析がますます重要になっている。
残念なことに、既存のリーチビリティと安全性分析の手法は、通常、正確なシステムモデルを推定するために既知のシステムダイナミクスや大規模なデータセットを必要とし、計算コストが高く、完全な状態情報を想定しているため、しばしば不足する。
MORALSと呼ばれる最近の手法は、トポロジカルツールを用いて低次元の潜在空間におけるアトラクション領域(ROA)を推定することで、これらの欠点に対処することを目的としている。
しかし、MORALSはいまだに完全な状態の知識に依存しており、センサー測定のみが可能になった時点では研究されていない。
本稿では,学習潜在空間(V-MORALS)におけるアトラクション領域の視覚的グラフ支援推定について述べる。
V-MORALSは、所定のコントローラの下でシステムのイメージベースの軌跡のデータセットを取り込み、到達可能性分析のための潜在空間を学習する。
この学習された潜伏空間を用いて、我々はよく定義されたモースグラフを生成することができ、そこから様々なシステムやコントローラのROAsを計算することができる。
V-MORALSは、状態の知識に頼らず、高レベルのセンサーデータのみを使用することなく、元のMORALSアーキテクチャに類似した機能を提供する。
プロジェクトのWebサイトは、https://v-morals.onrender.com.com.com。
関連論文リスト
- OnlineSI: Taming Large Language Model for Online 3D Understanding and Grounding [53.33067495235966]
OnlineSIは、ビデオストリームが与えられた周囲の空間的理解を改善するためのフレームワークである。
私たちの中核となる考え方は、過去の観測を維持するために有限空間記憶を維持することです。
さらに3Dポイントのクラウド情報を意味情報と統合し、MLLMがシーン内のオブジェクトをよりよく見つけ、識別するのに役立つ。
論文 参考訳(メタデータ) (2026-01-23T08:17:57Z) - SpaRRTa: A Synthetic Benchmark for Evaluating Spatial Intelligence in Visual Foundation Models [1.013466159542726]
Visual Foundation Models (VFM) は画像の意味的理解に優れているが、空間的推論能力は限られている。
最近の研究は、VFMトレーニングにいくつかの3Dタスク(深さ推定など)を組み込んでいる。
画像中の物体の相対的な位置を識別するVFMの能力を評価するSpaRRTa(Spatial Relation Recognition Task)ベンチマークを導入する。
論文 参考訳(メタデータ) (2026-01-16T19:21:02Z) - Wireless Traffic Prediction with Large Language Model [54.07581399989292]
TIDESは、無線トラフィック予測のための空間時間相関をキャプチャする新しいフレームワークである。
TIDESは過剰なトレーニングオーバーヘッドを発生させることなく、ドメイン固有のパターンへの効率的な適応を実現する。
この結果から,将来の6Gシステムにおいて,空間認識をLCMベースの予測器に統合することが,スケーラブルでインテリジェントなネットワーク管理の鍵であることが示唆された。
論文 参考訳(メタデータ) (2025-12-19T04:47:40Z) - Can Foundation Models Revolutionize Mobile AR Sparse Sensing? [2.984076446975729]
基礎モデルがモバイルスパースセンシングの環境を変えることができるかどうかを考察する。
実世界のモバイルARデータを用いて,基礎モデルが幾何認識画像のワープに大きな改善をもたらすことを示す。
本研究では,基礎モデルに基づくスパースセンシングのスケーラビリティを実証し,その3次元シーン再構成における主要な性能を示す。
論文 参考訳(メタデータ) (2025-11-04T03:06:51Z) - How Far are VLMs from Visual Spatial Intelligence? A Benchmark-Driven Perspective [103.44502230776352]
視覚言語モデル(VLM)における視覚空間推論(VSR)の系統的研究について述べる。
空間インテリジェンスを3つのレベル,すなわち基本的な知覚,空間理解,空間計画,および空間インテリジェンスベンチマークSIBenchに分類した。
論文 参考訳(メタデータ) (2025-09-23T12:00:14Z) - Spatial Knowledge Graph-Guided Multimodal Synthesis [78.11669780958657]
本稿では,空間知識グラフによって導かれる新しいマルチモーダル合成手法を提案する。
実験では、方向や距離を含む多様な空間知識から合成されたデータにより、MLLMの空間知覚と推論能力が著しく向上する。
知識に基づくデータ合成のアイデアが空間知性の発展を促進することを願っている。
論文 参考訳(メタデータ) (2025-05-28T17:50:21Z) - Conservation-informed Graph Learning for Spatiotemporal Dynamics Prediction [84.26340606752763]
本稿では,保護インフォームドGNN(CiGNN)について紹介する。
このネットワークは、保守的かつ非保守的な情報が、潜時的行進戦略によって多次元空間を通過する対称性による一般的な対称性保存則に従うように設計されている。
結果は,CiGNNが顕著なベースライン精度と一般化性を示し,様々な時間的ダイナミクスの予測のための学習に容易に適用可能であることを示した。
論文 参考訳(メタデータ) (2024-12-30T13:55:59Z) - SUIT: Learning Significance-guided Information for 3D Temporal Detection [15.237488449422008]
フレーム間の情報融合のためのスパース機能として時間的情報を単純化するSUIT(Significance-gUided Information for 3D Temporal Detection)を学習する。
大規模なnuScenesとデータセットにおいて、SUITは時間融合のメモリとコストを大幅に削減するだけでなく、最先端のベースラインよりも優れた性能を発揮する。
論文 参考訳(メタデータ) (2023-07-04T16:22:10Z) - Semantic Segmentation of Vegetation in Remote Sensing Imagery Using Deep
Learning [77.34726150561087]
本稿では,公開されているリモートセンシングデータからなるマルチモーダル・大規模時間データセットを作成するためのアプローチを提案する。
我々は、異なる種類の植生を分離できる畳み込みニューラルネットワーク(CNN)モデルを使用する。
論文 参考訳(メタデータ) (2022-09-28T18:51:59Z) - Dominant motion identification of multi-particle system using deep
learning from video [0.0]
本研究では,高度システムの実世界映像から関連情報を抽出するディープラーニングフレームワークを提案する。
本手法は,アリ,シロアリ,魚の閉じ込められた多エージェント/粒子系のビデオで実証する。
さらに,これらの多様なシステムがどのようにして基礎となる振る舞いを予測できるかを考察する。
論文 参考訳(メタデータ) (2021-04-26T17:10:56Z) - Autonomous Exploration Under Uncertainty via Deep Reinforcement Learning
on Graphs [5.043563227694137]
本研究では,移動ロボットが事前の未知環境におけるランドマークの正確なマッピングをリアルタイムで効率的に行うという自律的な探索問題を考察する。
本稿では,グラフニューラルネットワーク(GNN)と深部強化学習(DRL)を併用した新しい手法を提案する。
論文 参考訳(メタデータ) (2020-07-24T16:50:41Z) - Auxiliary-task learning for geographic data with autoregressive
embeddings [1.4823143667165382]
本研究では,空間データの自己回帰性に関する情報を学習プロセスに直接埋め込む手法であるSXLを提案する。
局所空間自己相関の一般的な尺度である局所モランIを用いて、局所空間効果の方向と大きさを学習する。
我々は,教師なしおよび教師なしの学習タスクにおいて,ニューラルネットワークのトレーニングを継続的に改善する方法について強調する。
論文 参考訳(メタデータ) (2020-06-18T12:16:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。