論文の概要: Airy: Reading Robot Intent through Height and Sky
- arxiv url: http://arxiv.org/abs/2510.08381v1
- Date: Thu, 09 Oct 2025 16:07:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-10 17:54:15.180905
- Title: Airy: Reading Robot Intent through Height and Sky
- Title(参考訳): 高さと空を飛ぶロボット「Airy」
- Authors: Baoyang Chen, Xian Xu, Huamin Qu,
- Abstract要約: Airy氏は、複雑なマルチエージェントAIが直感的に理解できるようになるかどうか尋ねる。
知覚メタファがブラックボックスを公開インターフェースに変える方法を示している。
- 参考スコア(独自算出の注目度): 42.16631998429073
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As industrial robots move into shared human spaces, their opaque decision making threatens safety, trust, and public oversight. This artwork, Airy, asks whether complex multi agent AI can become intuitively understandable by staging a competition between two reinforcement trained robot arms that snap a bedsheet skyward. Building on three design principles, competition as a clear metric (who lifts higher), embodied familiarity (audiences recognize fabric snapping), and sensor to sense mapping (robot cooperation or rivalry shown through forest and weather projections), the installation gives viewers a visceral way to read machine intent. Observations from five international exhibitions indicate that audiences consistently read the robots' strategies, conflict, and cooperation in real time, with emotional reactions that mirror the system's internal state. The project shows how sensory metaphors can turn a black box into a public interface.
- Abstract(参考訳): 産業用ロボットが共有された人間空間に移動するにつれ、不透明な決定が安全、信頼、そして公共の監視を脅かす。
このアートワーク、Airyは、複雑なマルチエージェントAIが、ベッドシートを空に撮る強化訓練された2つのロボットアームの競争を台無しにすることで、直感的に理解できるかどうかを尋ねる。
デザインの原則は3つあり、競争は明快なメートル法(高く持ち上げる)、親しみを具現化(聴衆は布のスナッピングを認識する)、マッピングを感知するセンサー(森林や天気予報を通して示されるロボットの協力やライバル)、そして視聴者に機械の意図を読むための視覚的な方法を提供する。
5つの国際展示会の観察から、観客はロボットの戦略、紛争、協力を常にリアルタイムで読み、システムの内部状態を反映する感情的な反応が示される。
このプロジェクトは、知覚メタファーがブラックボックスを公開インターフェースに変える方法を示している。
関連論文リスト
- Multi Layered Autonomy and AI Ecologies in Robotic Art Installations [42.16631998429073]
本稿では,Baoyang Chen氏の大規模インスタレーションであるSymbiosis of Agentsについて述べる。
AI駆動のロボットを没入型ミラーラインのアリーナに埋め込んで、マシンエージェンシーと芸術的作者との緊張関係を探る。
論文 参考訳(メタデータ) (2025-06-03T08:28:19Z) - GNN-based Decentralized Perception in Multirobot Systems for Predicting Worker Actions [12.260881600042374]
本稿では,移動ロボットが人間の行動に関する情報を分散的に理解し,共有することのできる認識フレームワークを提案する。
スウォームにインスパイアされた意思決定プロセスは、すべてのロボットが人間の行動の統一的な解釈に合意することを保証するために使用される。
論文 参考訳(メタデータ) (2025-01-08T00:06:38Z) - See, Hear, and Feel: Smart Sensory Fusion for Robotic Manipulation [49.925499720323806]
視覚的、聴覚的、触覚的知覚が、ロボットが複雑な操作タスクを解くのにどのように役立つかを研究する。
私たちは、カメラで見たり、コンタクトマイクで聞いたり、視覚ベースの触覚センサーで感じるロボットシステムを構築しました。
論文 参考訳(メタデータ) (2022-12-07T18:55:53Z) - Synthesis and Execution of Communicative Robotic Movements with
Generative Adversarial Networks [59.098560311521034]
我々は、繊細な物体を操作する際に人間が採用するのと同じキネマティクス変調を2つの異なるロボットプラットフォームに転送する方法に焦点を当てる。
我々は、ロボットのエンドエフェクターが採用する速度プロファイルを、異なる特徴を持つ物体を輸送する際に人間が何をするかに触発されて調整する。
我々は、人体キネマティクスの例を用いて訓練され、それらを一般化し、新しい有意義な速度プロファイルを生成する、新しいジェネレーティブ・アドバイサル・ネットワークアーキテクチャを利用する。
論文 参考訳(メタデータ) (2022-03-29T15:03:05Z) - Spatial Computing and Intuitive Interaction: Bringing Mixed Reality and
Robotics Together [68.44697646919515]
本稿では,空間コンピューティングを応用し,新しいロボットのユースケースを実現するためのロボットシステムについて述べる。
空間コンピューティングとエゴセントリックな感覚を複合現実感デバイスに組み合わせることで、人間の行動をキャプチャして理解し、それらを空間的な意味を持つ行動に変換することができる。
論文 参考訳(メタデータ) (2022-02-03T10:04:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。