論文の概要: Plant-Inspired Robot Design Metaphors for Ambient HRI
- arxiv url: http://arxiv.org/abs/2601.22387v1
- Date: Thu, 29 Jan 2026 22:55:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-23 08:17:41.026342
- Title: Plant-Inspired Robot Design Metaphors for Ambient HRI
- Title(参考訳): 植物にインスパイアされたHRIのためのロボット設計メタファー
- Authors: Victor Nikhil Antony, Adithya R N, Sarah Derrick, Zhili Gong, Peter M. Donley, Chien-Ming Huang,
- Abstract要約: 人間-ロボット相互作用(HRI)の比喩的インスピレーションとして植物を探索する
私たちは、植物にインスパイアされた存在、時間性、形、ジェスチャーを調査するのに役立つ、投機的でオープンソースのプロトタイプのセットを提示します。
本研究は,(1)植物にインスパイアされたロボットアーティファクトのセット,(2)人々が植物にインスパイアされたロボットをどのように感じているか,(3)HRIを形作るために植物メタファーをどう使うかを知るための設計上の考察に寄与する。
- 参考スコア(独自算出の注目度): 2.262838186547612
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Plants offer a paradoxical model for interaction: they are ambient, low-demand presences that nonetheless shape atmosphere, routines, and relationships through temporal rhythms and subtle expressions. In contrast, most human-robot interaction (HRI) has been grounded in anthropomorphic and zoomorphic paradigms, producing overt, high-demand forms of engagement. Using a Research through Design (RtD) methodology, we explore plants as metaphoric inspiration for HRI; we conducted iterative cycles of ideation, prototyping, and reflection to investigate what design primitives emerge from plant metaphors and morphologies, and how these primitives can be combined into expressive robotic forms. We present a suite of speculative, open-source prototypes that help probe plant-inspired presence, temporality, form, and gestures. We deepened our learnings from design and prototyping through prototype-centered workshops that explored people's perceptions and imaginaries of plant-inspired robots. This work contributes: (1) Set of plant-inspired robotic artifacts; (2) Designerly insights on how people perceive plant-inspired robots; and (3) Design consideration to inform how to use plant metaphors to reshape HRI.
- Abstract(参考訳): 植物は相互作用のパラドックスモデルを提供する:それらは環境的で低需要な存在であり、それでも時相リズムや微妙な表現を通じて雰囲気、ルーチン、関係を形作る。
対照的に、ほとんどのヒトとロボットの相互作用 (HRI) は人為的・動物的パラダイムに基礎を置いており、過剰で高需要なエンゲージメントを生み出している。
我々は,植物をHRIの比喩的インスピレーションとして研究し,植物メタファーや形態学からどのようなデザインプリミティブが生まれるのか,そしてこれらのプリミティブを表現型ロボット形式にどのように組み込むのかを,アイデア,プロトタイピング,反射の反復サイクルで調査した。
私たちは、植物にインスパイアされた存在、時間性、形、ジェスチャーを調査するのに役立つ、投機的でオープンソースのプロトタイプのセットを提示します。
私たちは、植物に触発されたロボットに対する人々の認識と想像を探索するプロトタイプ中心のワークショップを通じて、デザインとプロトタイプから学んだことを深めました。
本研究は,(1)植物にインスパイアされたロボットアーティファクトのセット,(2)人々が植物にインスパイアされたロボットをどのように感じているか,(3)HRIを形作るために植物メタファーをどう使うかを知るための設計上の考察に寄与する。
関連論文リスト
- Elements of Robot Morphology: Supporting Designers in Robot Form Exploration [12.218299976887016]
ロボット形態学の要素は、知覚、調音、エンドエフェクター、移動、構造という5つの基本的な要素を識別する枠組みである。
このフレームワークを運用するために,ロボット形態学との協調実験を可能にする有形ブロックのセットであるMorphology Exploration Blocks (MEB)を開発した。
論文 参考訳(メタデータ) (2026-02-09T21:13:20Z) - From Generated Human Videos to Physically Plausible Robot Trajectories [103.28274349461607]
ビデオ生成モデルは、人間のアクションを新しい文脈で合成する能力が急速に向上している。
この可能性を実現するために、ヒューマノイドはどうやってゼロショットで生成されたビデオから人間の行動を実行することができるのか?
この課題は、生成されたビデオがしばしばうるさいので、実際のビデオと比べて直接の模倣を困難にする形態的歪みを示すためである。
我々は,3次元キーポイントに条件付き物理対応強化学習政策であるGenMimicを提案し,対称性の正則化とキーポイント重み付きトラッキング報酬を訓練した。
論文 参考訳(メタデータ) (2025-12-04T18:56:03Z) - Find the Fruit: Zero-Shot Sim2Real RL for Occlusion-Aware Plant Manipulation [13.867375354795167]
本稿では,開地における自律収穫のための強化学習フレームワークを提案する。
茎と葉を配置して標的果実を明らかにするためのシミュレーションで完全に学習される政策
複数の実生植物の実験では, 最大86.7%の果実の暴露に成功した。
論文 参考訳(メタデータ) (2025-05-22T11:37:39Z) - Multi-Scenario Reasoning: Unlocking Cognitive Autonomy in Humanoid Robots for Multimodal Understanding [4.586907225774023]
本研究では,この分野でのマルチモーダル理解の技術的欠点を解決するために,多シナリオ推論アーキテクチャを提案する。
この結果は、マルチモーダルデータにおけるこのアーキテクチャの実現可能性を示している。
それは、シナリオを変える際に、ヒューマノイドロボットの自己学習と自律行動の将来の発展を物語っている。
論文 参考訳(メタデータ) (2024-12-29T10:46:08Z) - Compositional 3D Human-Object Neural Animation [93.38239238988719]
人間と物体の相互作用(HOI)は、人間中心の視覚生成、AR/VR、ロボット工学などの人間中心のシーン理解アプリケーションに不可欠である。
本稿では,HoIアニメーションにおけるこの課題について,作曲の観点から考察する。
我々は、暗黙のニューラル表現に基づいてHOIダイナミクスをモデル化し、レンダリングするために、ニューラル・ヒューマン・オブジェクトの変形を採用する。
論文 参考訳(メタデータ) (2023-04-27T10:04:56Z) - Embodied Agents for Efficient Exploration and Smart Scene Description [47.82947878753809]
我々は、自律的なエージェントが見えない屋内環境を探索し、マッピングする必要がある視覚ナビゲーションの設定に取り組む。
本稿では,視覚ロボット探査と画像キャプションの最近の進歩を組み合わせたアプローチを提案し,評価する。
提案手法は,環境の意味的知識を最大化し,繰り返しを避けるスマートなシーン記述を生成する。
論文 参考訳(メタデータ) (2023-01-17T19:28:01Z) - Data-driven emotional body language generation for social robotics [58.88028813371423]
社会ロボティクスでは、人間型ロボットに感情の身体的表現を生成する能力を与えることで、人間とロボットの相互作用とコラボレーションを改善することができる。
我々は、手作業で設計されたいくつかの身体表現から学習する深層学習データ駆動フレームワークを実装した。
評価実験の結果, 生成した表現の人間同型とアニマシーは手作りの表現と異なる認識が得られなかった。
論文 参考訳(メタデータ) (2022-05-02T09:21:39Z) - RoboTHOR: An Open Simulation-to-Real Embodied AI Platform [56.50243383294621]
インタラクティブで具体化された視覚AIの研究を民主化するためにRoboTHORを導入する。
シミュレーションで訓練されたモデルの性能は,シミュレーションと慎重に構築された物理アナログの両方で試験される場合,大きな差があることが示される。
論文 参考訳(メタデータ) (2020-04-14T20:52:49Z) - SAPIEN: A SimulAted Part-based Interactive ENvironment [77.4739790629284]
SAPIENは現実的で物理に富んだシミュレートされた環境であり、音声オブジェクトのための大規模なセットをホストしている。
部品検出と動作特性認識のための最先端の視覚アルゴリズムの評価を行い,ロボットインタラクションタスクの実証を行った。
論文 参考訳(メタデータ) (2020-03-19T00:11:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。