論文の概要: Creating a biologically more accurate spider robot to study active vibration sensing
- arxiv url: http://arxiv.org/abs/2601.16691v1
- Date: Fri, 23 Jan 2026 12:10:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-23 08:17:40.919993
- Title: Creating a biologically more accurate spider robot to study active vibration sensing
- Title(参考訳): 生体より正確なクモロボットの開発
- Authors: Siyuan Sun, Eugene H. Lin, Nathan Brown, Hsin-Yi Hung, Andrew Gordus, Jochen Mueller, Chen Li,
- Abstract要約: オーブ織りクモは脚関節の振動センサーを使ってウェブ上で獲物を検出する。
彼らはしばしば、獲物感知中に足を動的にしゃがみ込み、おそらくは活発なセンシング戦略である。
我々は8本の脚を持つ新しいクモロボットを開発し、それぞれが4本の関節を持ち、クモの脚形態をよりよく近似する。
- 参考スコア(独自算出の注目度): 7.024241854005889
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Orb-weaving spiders detect prey on a web using vibration sensors at leg joints. They often dynamically crouch their legs during prey sensing, likely an active sensing strategy. However, how leg crouching enhances sensing is poorly understood, because measuring system vibrations in behaving animals is difficult. We use robophysical modeling to study this problem. Our previous spider robot had only four legs, simplified leg morphology, and a shallow crouching range of motion. Here, we developed a new spider robot, with eight legs, each with four joints that better approximated spider leg morphology. Leg exoskeletons were 3-D printed and joint stiffness was tuned using integrated silicone molding with variable materials and geometry. Tendon-driven actuation allowed a motor in the body to crouch all eight legs deeply as spiders do, while accelerometers at leg joints record leg vibrations. Experiments showed that our new spider robot reproduced key vibration features observed in the previous robot while improving biological accuracy. Our new robot provides a biologically more accurate robophysical model for studying how leg behaviors modulate vibration sensing on a web.
- Abstract(参考訳): オーブ織りクモは脚関節の振動センサーを使ってウェブ上で獲物を検出する。
彼らはしばしば、獲物感知中に足を動的にしゃがみ込み、おそらくは活発なセンシング戦略である。
しかし, 脚のしゃがみが感覚に与える影響は, 生体の振動を測定するのが難しいため, 理解が難しい。
私たちはこの問題を研究するためにロボフィジカルモデリングを使用します。
これまでのクモロボットの脚は4本しかなく、脚の形態はシンプルで、動きは浅い。
そこで我々は,8本の脚を持つクモ型ロボットを開発し,それぞれが4本の関節を持ち,クモの脚形態をよりよく近似した。
足部外骨格は3Dプリントされ, 各種材料と形状のシリコーン成形体を用いて関節硬さを調整した。
腱駆動の運動により、クモのように8本足のモーターが深くしゃがみ、脚関節の加速度計は脚の振動を記録できる。
実験の結果、我々の新しいクモロボットは、生物の精度を向上しながら、前のロボットで観測された重要な振動特性を再現した。
我々の新しいロボットは、脚の動きがウェブ上での振動感知をどう調節するかを研究するために、生物学的により正確なロボット物理モデルを提供する。
関連論文リスト
- H2R-Grounder: A Paired-Data-Free Paradigm for Translating Human Interaction Videos into Physically Grounded Robot Videos [58.006918399913665]
本稿では,通常の人間と物体のインタラクションビデオからモーション一貫性のあるロボット操作ビデオに変換するビデオ間翻訳フレームワークを提案する。
私たちのアプローチでは、ロボットビデオのセットのみをトレーニングするために、ペアの人間ロボットビデオは必要とせず、システムを拡張しやすくしています。
テスト時にも同じプロセスを人間のビデオに適用し、人間の行動を模倣する高品質なロボットビデオを生成する。
論文 参考訳(メタデータ) (2025-12-10T07:59:45Z) - Breathless: An 8-hour Performance Contrasting Human and Robot Expressiveness [16.69221972067975]
本稿では,人間のダンサーと産業用ロボットアームを組み合わせたオリジナルパフォーマンスを支えるロボット技術について述べる。
ロボットアームを制御するために, 各種の正弦波運動と各関節の振幅, 周波数, オフセットを組み合わせ, 身体労働に共通する人間の動作を誘発する。
ビデオに基づく人的対象追跡と抽出のための深層学習技術を用いて、さらなる動きが開発された。
論文 参考訳(メタデータ) (2024-11-19T09:20:51Z) - Learning Visual Quadrupedal Loco-Manipulation from Demonstrations [36.1894630015056]
我々は四足歩行ロボットに、足だけを使って現実世界の操作タスクを実行させることを目標としている。
我々はロコ操作プロセスを低レベル強化学習(RL)ベースのコントローラと高レベル行動クローン(BC)ベースのプランナに分解する。
提案手法はシミュレーションや実世界の実験を通じて検証され,移動性や高精度なタスクをロボットが実行できることが実証された。
論文 参考訳(メタデータ) (2024-03-29T17:59:05Z) - Pedipulate: Enabling Manipulation Skills using a Quadruped Robot's Leg [11.129918951736052]
脚のついたロボットは、メンテナンス、ホームサポート、探索のシナリオにおいて不可欠になる可能性がある。
本研究では,ロボットの脚を操作に用いたペディピュレーションについて検討する。
論文 参考訳(メタデータ) (2024-02-16T17:20:45Z) - Robot Learning with Sensorimotor Pre-training [98.7755895548928]
ロボット工学のための自己教師型感覚運動器事前学習手法を提案する。
我々のモデルはRTTと呼ばれ、センサモレータトークンのシーケンスで動作するトランスフォーマーである。
感覚運動の事前学習は、ゼロからトレーニングを一貫して上回り、優れたスケーリング特性を持ち、さまざまなタスク、環境、ロボット間での移動を可能にしている。
論文 参考訳(メタデータ) (2023-06-16T17:58:10Z) - Barkour: Benchmarking Animal-level Agility with Quadruped Robots [70.97471756305463]
脚付きロボットのアジリティを定量化するための障害物コースであるBarkourベンチマークを導入する。
犬の機敏性の競争に触発され、様々な障害と時間に基づくスコアリング機構から構成される。
ベンチマークに対処する2つの方法を提案する。
論文 参考訳(メタデータ) (2023-05-24T02:49:43Z) - See, Hear, and Feel: Smart Sensory Fusion for Robotic Manipulation [49.925499720323806]
視覚的、聴覚的、触覚的知覚が、ロボットが複雑な操作タスクを解くのにどのように役立つかを研究する。
私たちは、カメラで見たり、コンタクトマイクで聞いたり、視覚ベースの触覚センサーで感じるロボットシステムを構築しました。
論文 参考訳(メタデータ) (2022-12-07T18:55:53Z) - Minimizing Energy Consumption Leads to the Emergence of Gaits in Legged
Robots [71.61319876928009]
実四足歩行ロボットにおいて,エネルギー消費を最小化するための学習が自然移動歩行の出現に重要な役割を担っていることを示す。
創発的な足跡は理想的な地形で構築されており、馬や羊のものと似ている。
同じアプローチは、動物運動制御の発見と一致した荒地における非構造的な歩行につながる。
論文 参考訳(メタデータ) (2021-10-25T17:59:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。