論文の概要: The RoboSense Challenge: Sense Anything, Navigate Anywhere, Adapt Across Platforms
- arxiv url: http://arxiv.org/abs/2601.05014v1
- Date: Thu, 08 Jan 2026 15:16:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-23 08:17:40.70093
- Title: The RoboSense Challenge: Sense Anything, Navigate Anywhere, Adapt Across Platforms
- Title(参考訳): RoboSenseの挑戦:あらゆるものを理解し、あらゆる場所をナビゲートし、プラットフォームをまたいで適応する
- Authors: Lingdong Kong, Shaoyuan Xie, Zeying Gong, Ye Li, Meng Chu, Ao Liang, Yuhao Dong, Tianshuai Hu, Ronghe Qiu, Rong Li, Hanjiang Hu, Dongyue Lu, Wei Yin, Wenhao Ding, Linfeng Li, Hang Song, Wenwei Zhang, Yuexin Ma, Junwei Liang, Zhedong Zheng, Lai Xing Ng, Benoit R. Cottereau, Wei Tsang Ooi, Ziwei Liu, Zhanpeng Zhang, Weichao Qiu, Wei Zhang, Ji Ao, Jiangpeng Zheng, Siyu Wang, Guang Yang, Zihao Zhang, Yu Zhong, Enzhu Gao, Xinhan Zheng, Xueting Wang, Shouming Li, Yunkai Gao, Siming Lan, Mingfei Han, Xing Hu, Dusan Malic, Christian Fruhwirth-Reisinger, Alexander Prutsch, Wei Lin, Samuel Schulter, Horst Possegger, Linfeng Li, Jian Zhao, Zepeng Yang, Yuhang Song, Bojun Lin, Tianle Zhang, Yuchen Yuan, Chi Zhang, Xuelong Li, Youngseok Kim, Sihwan Hwang, Hyeonjun Jeong, Aodi Wu, Xubo Luo, Erjia Xiao, Lingfeng Zhang, Yingbo Tang, Hao Cheng, Renjing Xu, Wenbo Ding, Lei Zhou, Long Chen, Hangjun Ye, Xiaoshuai Hao, Shuangzhi Li, Junlong Shen, Xingyu Li, Hao Ruan, Jinliang Lin, Zhiming Luo, Yu Zang, Cheng Wang, Hanshi Wang, Xijie Gong, Yixiang Yang, Qianli Ma, Zhipeng Zhang, Wenxiang Shi, Jingmeng Zhou, Weijun Zeng, Kexin Xu, Yuchen Zhang, Haoxiang Fu, Ruibin Hu, Yanbiao Ma, Xiyan Feng, Wenbo Zhang, Lu Zhang, Yunzhi Zhuge, Huchuan Lu, You He, Seungjun Yu, Junsung Park, Youngsun Lim, Hyunjung Shim, Faduo Liang, Zihang Wang, Yiming Peng, Guanyu Zong, Xu Li, Binghao Wang, Hao Wei, Yongxin Ma, Yunke Shi, Shuaipeng Liu, Dong Kong, Yongchun Lin, Huitong Yang, Liang Lei, Haoang Li, Xinliang Zhang, Zhiyong Wang, Xiaofeng Wang, Yuxia Fu, Yadan Luo, Djamahl Etchegaray, Yang Li, Congfei Li, Yuxiang Sun, Wenkai Zhu, Wang Xu, Linru Li, Longjie Liao, Jun Yan, Benwu Wang, Xueliang Ren, Xiaoyu Yue, Jixian Zheng, Jinfeng Wu, Shurui Qin, Wei Cong, Yao He,
- Abstract要約: RoboSense 2025 Challengeは、さまざまな知覚シナリオにわたるロボット知覚における堅牢性と適応性を向上するために設計された。
言語による意思決定、社会的に適合したナビゲーション、センサー構成の一般化、クロスプラットフォームとクロスプラットフォームの対応、クロスプラットフォームの3D知覚にまたがる5つの補完的な研究トラックを統一する。
この挑戦は16カ国の85の機関から143のチームが参加し、コミュニティの幅広い関与を反映した。
- 参考スコア(独自算出の注目度): 244.78980521248445
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Autonomous systems are increasingly deployed in open and dynamic environments -- from city streets to aerial and indoor spaces -- where perception models must remain reliable under sensor noise, environmental variation, and platform shifts. However, even state-of-the-art methods often degrade under unseen conditions, highlighting the need for robust and generalizable robot sensing. The RoboSense 2025 Challenge is designed to advance robustness and adaptability in robot perception across diverse sensing scenarios. It unifies five complementary research tracks spanning language-grounded decision making, socially compliant navigation, sensor configuration generalization, cross-view and cross-modal correspondence, and cross-platform 3D perception. Together, these tasks form a comprehensive benchmark for evaluating real-world sensing reliability under domain shifts, sensor failures, and platform discrepancies. RoboSense 2025 provides standardized datasets, baseline models, and unified evaluation protocols, enabling large-scale and reproducible comparison of robust perception methods. The challenge attracted 143 teams from 85 institutions across 16 countries, reflecting broad community engagement. By consolidating insights from 23 winning solutions, this report highlights emerging methodological trends, shared design principles, and open challenges across all tracks, marking a step toward building robots that can sense reliably, act robustly, and adapt across platforms in real-world environments.
- Abstract(参考訳): 自律システムは、都市通りから空や屋内の空間まで、オープンでダイナミックな環境にますます展開されている。
しかし、最先端の方法でさえ、しばしば目に見えない条件下で劣化し、堅牢で一般化可能なロボットセンシングの必要性を強調している。
RoboSense 2025 Challengeは、さまざまな知覚シナリオにおけるロボット知覚の堅牢性と適応性を向上するために設計された。
言語による意思決定、社会的に適合したナビゲーション、センサー構成の一般化、クロスプラットフォームとクロスプラットフォームの対応、クロスプラットフォームの3D知覚にまたがる5つの補完的な研究トラックを統一する。
これらのタスクは、ドメインシフト、センサー障害、プラットフォームの不一致の下での実際のセンシング信頼性を評価するための包括的なベンチマークを形成する。
RoboSense 2025は、標準化されたデータセット、ベースラインモデル、統一された評価プロトコルを提供し、堅牢な知覚方法の大規模かつ再現可能な比較を可能にする。
このチャレンジは16カ国の85の機関から143のチームが参加し、コミュニティの幅広い関与を反映した。
23の勝利したソリューションからの洞察を統合することで、このレポートは、新しい方法論のトレンド、設計原則の共有、すべてのトラックにまたがるオープンな課題を強調します。
関連論文リスト
- CHORAL: Traversal-Aware Planning for Safe and Efficient Heterogeneous Multi-Robot Routing [4.3992789649203194]
自律ロボットによる大規模で未知の複雑な環境のモニタリングは、重要なナビゲーション課題を引き起こす。
異種ロボットの協調のための統合意味認識フレームワークを提案する。
シミュレーション実験と3つのロボットプラットフォームを用いた実際の検査ミッションにより,本手法の有効性が実証された。
論文 参考訳(メタデータ) (2026-01-15T12:34:22Z) - Situationally-Aware Dynamics Learning [57.698553219660376]
隠れ状態表現のオンライン学習のための新しいフレームワークを提案する。
提案手法は、非観測パラメータが遷移力学と報酬構造の両方に与える影響を明示的にモデル化する。
シミュレーションと実世界の両方の実験は、データ効率、ポリシー性能、安全で適応的なナビゲーション戦略の出現を著しく改善した。
論文 参考訳(メタデータ) (2025-05-26T06:40:11Z) - CoinRobot: Generalized End-to-end Robotic Learning for Physical Intelligence [12.629888401901418]
当社のフレームワークはクロスプラットフォーム適応性をサポートし,産業用ロボット,協調アーム,タスク固有の変更を伴わない新しい実施形態をシームレスに展開する。
我々は,7つの操作タスクに関する広範囲な実験を通じて,我々のフレームワークを検証する。特に,我々のフレームワークで訓練された拡散モデルは,LeRobotフレームワークと比較して優れた性能と一般化性を示した。
論文 参考訳(メタデータ) (2025-03-07T10:50:58Z) - RoboSense: Large-scale Dataset and Benchmark for Egocentric Robot Perception and Navigation in Crowded and Unstructured Environments [62.5830455357187]
我々は3種類のセンサー(Camera, LiDAR, Fisheye)をベースとした自我中心型マルチセンサデータ収集プラットフォームを構築した。
大規模なマルチモーダルデータセットであるRoboSenseは、エゴセントリックなロボット知覚を促進するために構築されている。
論文 参考訳(メタデータ) (2024-08-28T03:17:40Z) - The RoboDrive Challenge: Drive Anytime Anywhere in Any Condition [136.32656319458158]
2024年のRoboDrive Challengeは、駆動認識技術の発展を促進するために作られた。
今年の挑戦は5つの異なるトラックで構成され、11カ国の93の機関から140の登録チームが集まった。
競争は15の最高パフォーマンスのソリューションで頂点に達した。
論文 参考訳(メタデータ) (2024-05-14T17:59:57Z) - HARPS: An Online POMDP Framework for Human-Assisted Robotic Planning and
Sensing [1.3678064890824186]
HARPS(Human Assisted Robotic Planning and Sensing)フレームワークは、ロボットチームにおけるアクティブなセマンティックセンシングと計画のためのフレームワークである。
このアプローチにより、人間が不規則にモデル構造を強制し、不確実な環境で意味的なソフトデータの範囲を拡張することができる。
大規模部分構造環境におけるUAV対応ターゲット探索アプリケーションのシミュレーションは、時間と信念状態の推定において著しく改善されている。
論文 参考訳(メタデータ) (2021-10-20T00:41:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。