論文の概要: Is Robot Labor Labor? Delivery Robots and the Politics of Work in Public Space
- arxiv url: http://arxiv.org/abs/2602.20180v1
- Date: Wed, 18 Feb 2026 20:57:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-25 17:34:53.444919
- Title: Is Robot Labor Labor? Delivery Robots and the Politics of Work in Public Space
- Title(参考訳): ロボット労働とは? 配達ロボットと公共空間における仕事の政治
- Authors: EunJeong Cheon, Do Yeon Shin,
- Abstract要約: 歩道の配達ロボットが都市生活に統合されるにつれて、この論文は批判的な挑発から始まります。
我々は、配達ロボットは労働を置き換えるのではなく、それを再構成するものであると主張している。
我々は、韓国のスマートシティ自動化に関する実証的な洞察と、公共向けロボットをより理論化するために、労働と空間政治とより深く関わりたいというHRIの要求を集合的な集合体としてロボット労働の概念的再フレーミングに貢献する。
- 参考スコア(独自算出の注目度): 4.046407662099088
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As sidewalk delivery robots become increasingly integrated into urban life, this paper begins with a critical provocation: Is robot labor labor? More than a rhetorical question, this inquiry invites closer attention to the social and political arrangements that robot labor entails. Drawing on ethnographic fieldwork across two smart-city districts in Seoul, we examine how delivery robot labor is collectively sustained. While robotic actions are often framed as autonomous and efficient, we show that each successful delivery is in fact a distributed sociotechnical achievement--reliant on human labor, regulatory coordination, and social accommodations. We argue that delivery robots do not replace labor but reconfigure it--rendering some forms more visible (robotic performance) while obscuring others (human and institutional support). Unlike industrial robots, delivery robots operate in shared public space, engage everyday passersby, and are embedded in policy and progress narratives. In these spaces, we identify "robot privilege"--humans routinely yielding to robots--and distinct perceptions between casual observers ("cute") and everyday coexisters ("admirable"). We contribute a conceptual reframing of robot labor as a collective assemblage, empirical insights into South Korea's smart-city automation, and a call for HRI to engage more deeply with labor and spatial politics to better theorize public-facing robots.
- Abstract(参考訳): 歩道の配達ロボットが都市生活に統合されるにつれて、この論文は批判的な挑発から始まります。
この質問は、修辞的な質問以上のもので、ロボット労働がもたらす社会的・政治的アレンジメントに、より深い注意を払っている。
ソウルの2つのスマートシティ地区にまたがるエスノグラフィーのフィールドワークを参考に、デリバリーロボットの労働が一体どのように持続されているかを検討する。
ロボットの行動は、自律的で効率的であることが多いが、それぞれの成功は、実際に分散社会技術的な成果であることを示す。人間労働、規制調整、社会的宿泊に頼っている。我々は、配達ロボットは、労働を置き換えるのではなく、それを再構成する、ある形態(ロボティックなパフォーマンス)をより目に見えるものにし、他の形態(人間や機関の支援)を遮蔽する、と主張している。
産業用ロボットとは異なり、配達ロボットは共有公共空間で活動し、日々の通行人に関わり、政策や進捗の物語に埋め込まれている。
これらの空間では、人間がロボットに日常的に与える「ロボットの特権」と、カジュアルな観察者(カット)と日常的な共存者(賞賛できる)の区別を区別する。
我々は、韓国のスマートシティ自動化に関する実証的な洞察と、公共向けロボットをより理論化するために、労働と空間政治とより深く関わりたいというHRIの要求を集合的な集合体としてロボット労働の概念的再フレーミングに貢献する。
関連論文リスト
- Choreographing Trash Cans: On Speculative Futures of Weak Robots in Public Spaces [0.0]
本稿では,環境を独立に管理するのではなく,ポストヒューマンコラボレーションを促進する移動ロボットについて検討する。
本研究では,機能と能力の概念を整理し,「弱ロボット」の動作について検討する。
今後の都市空間におけるロボットの振付を記述した2つの投機的デザイン・フィクションヴィグネットを紹介した。
論文 参考訳(メタデータ) (2025-09-01T17:27:43Z) - Generalizable Humanoid Manipulation with 3D Diffusion Policies [66.78220965526732]
我々は、ヒューマノイドロボットによる自律的な操作の問題を解決するために、現実世界のロボットシステムを構築している。
本システムは主に,人型ロボットデータを取得するための全身ロボット遠隔操作システムと,高さ調整可能なカートと3D LiDARセンサを備えた25-DoFヒューマノイドロボットプラットフォームの統合である。
1つのシーンで収集されたデータのみを使用し、オンボードコンピューティングのみで、フルサイズのヒューマノイドロボットが様々な現実世界のシナリオで自律的にスキルを発揮できることが示される。
論文 参考訳(メタデータ) (2024-10-14T17:59:00Z) - Controlling diverse robots by inferring Jacobian fields with deep networks [48.279199537720714]
自然生物の複雑な構造と多様な機能を反映することは、ロボット工学における長年の課題である。
本稿では,深層ニューラルネットワークを用いてロボットの映像ストリームをバイスモータヤコビアン場にマッピングする手法を提案する。
提案手法は,正確なクローズドループ制御を実現し,各ロボットの因果動的構造を復元する。
論文 参考訳(メタデータ) (2024-07-11T17:55:49Z) - HumanoidBench: Simulated Humanoid Benchmark for Whole-Body Locomotion and Manipulation [50.616995671367704]
そこで本研究では,人型ロボットが器用な手を備えた,高次元シミュレーション型ロボット学習ベンチマークHumanoidBenchを提案する。
その結果,現在最先端の強化学習アルゴリズムがほとんどのタスクに支障をきたすのに対して,階層的学習アプローチはロバストな低レベルポリシーに支えられた場合,優れた性能を達成できることがわかった。
論文 参考訳(メタデータ) (2024-03-15T17:45:44Z) - Correspondence learning between morphologically different robots via
task demonstrations [2.1374208474242815]
形態の異なる2つ以上のロボットの対応関係を学習する手法を提案する。
本提案手法では,関節制御付き固定ベースマニピュレータロボットと差動駆動移動ロボットとが対応可能である。
本研究では,実際のマニピュレータロボットとシミュレートされた移動ロボットとの対応学習の概念実証を行う。
論文 参考訳(メタデータ) (2023-10-20T12:42:06Z) - ImitationNet: Unsupervised Human-to-Robot Motion Retargeting via Shared Latent Space [9.806227900768926]
本稿では,ロボットの動きに対する新しいディープラーニング手法を提案する。
本手法では,新しいロボットへの翻訳を容易にする,人間とロボットのペアデータを必要としない。
我々のモデルは、効率と精度の観点から、人間とロボットの類似性に関する既存の研究よりも優れています。
論文 参考訳(メタデータ) (2023-09-11T08:55:04Z) - Asch Meets HRI: Human Conformity to Robot Groups [0.9350546589421261]
本稿では,産業ロボットの文脈におけるグループダイナミクスとピアプレッシャの探索を目的とした研究概要について述べる。
我々は,産業ロボットの文脈におけるグループサイズ,ロボットの信頼性,心理的ストレス,およびピアプレッシャーの影響を明らかにすることに興味を持っている。
論文 参考訳(メタデータ) (2023-08-25T11:14:24Z) - Giving Robots a Hand: Learning Generalizable Manipulation with
Eye-in-Hand Human Video Demonstrations [66.47064743686953]
眼内カメラは、視覚に基づくロボット操作において、より優れたサンプル効率と一般化を可能にすることを約束している。
一方、人間がタスクを行うビデオは、ロボット遠隔操作の専門知識を欠いているため、収集コストがずっと安い。
本研究では,広範にラベルのない人間ビデオによるロボット模倣データセットを拡張し,眼球運動ポリシーの一般化を大幅に促進する。
論文 参考訳(メタデータ) (2023-07-12T07:04:53Z) - REvolveR: Continuous Evolutionary Models for Robot-to-robot Policy
Transfer [57.045140028275036]
本研究では,運動学や形態学など,異なるパラメータを持つ2つの異なるロボット間でポリシーを伝達する問題を考察する。
模倣学習手法を含む動作や状態遷移の分布を一致させることで、新しいポリシーを訓練する既存のアプローチは、最適な動作や/または状態分布が異なるロボットでミスマッチしているために失敗する。
本稿では,物理シミュレータに実装されたロボット政策伝達に連続的進化モデルを用いることで,$RevolveR$という新しい手法を提案する。
論文 参考訳(メタデータ) (2022-02-10T18:50:25Z) - Design and Development of Autonomous Delivery Robot [0.16863755729554888]
私たちは、VNITキャンパス内のパッケージを人間の通信なしで配信する自律移動ロボットプラットフォームを提示します。
この論文では、屋外環境で働く自律ロボットのパイプライン全体について説明する。
論文 参考訳(メタデータ) (2021-03-16T17:57:44Z) - Show Me What You Can Do: Capability Calibration on Reachable Workspace
for Human-Robot Collaboration [83.4081612443128]
本稿では,REMPを用いた短時間キャリブレーションにより,ロボットが到達できると考える非専門家と地道とのギャップを効果的に埋めることができることを示す。
この校正手順は,ユーザ認識の向上だけでなく,人間とロボットのコラボレーションの効率化にも寄与することを示す。
論文 参考訳(メタデータ) (2021-03-06T09:14:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。