論文の概要: Avatar Work: Telework for Disabled People Unable to Go Outside by Using
Avatar Robots "OriHime-D" and Its Verification
- arxiv url: http://arxiv.org/abs/2003.12569v1
- Date: Wed, 25 Mar 2020 12:44:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-27 22:38:48.449389
- Title: Avatar Work: Telework for Disabled People Unable to Go Outside by Using
Avatar Robots "OriHime-D" and Its Verification
- Title(参考訳): アバター作業:アバターロボット「OriHime-D」を用いた障害者のためのテレワークとその検証
- Authors: Kazuaki Takeuchi, Yoichi Yamazaki, and Kentaro Yoshifuji
- Abstract要約: 本稿では、障害者がカスタマーサービスなどの物理的な業務に携わることができるテレワーク「アバターワーク」を提案する。
アバター作業では、障害に応じてマウスや視線入力でロボット「OriHime-D」を操作できる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this study, we propose a telework "avatar work" that enables people with
disabilities to engage in physical works such as customer service in order to
realize an inclusive society, where we can do anything if we have free mind,
even though we are bedridden. In avatar work, disabled people can remotely
engage in physical work by operating a proposed robot "OriHime-D" with a mouse
or gaze input depending on their own disabilities. As a social implementation
initiative of avatar work, we have opened a two-week limited avatar robot cafe
and have evaluated remote employment by people with disabilities using
OriHime-D. As the results by 10 people with disabilities, we have confirmed
that the proposed avatar work leads to mental fulfillment for people with
disparities, and can be designed with adaptable workload. In addition, we have
confirmed that the work content of the experimental cafe is appropriate for
people with a variety of disabilities seeking social participation. This study
contributes to fulfillment all through life and lifetime working, and at the
same time leads to a solution to the employment shortage problem.
- Abstract(参考訳): 本研究では,障害のある人が,寝たきりでも自由心が持てば何でもできる包括的な社会を実現するために,カスタマサービスなどの身体活動に携わることを可能にするテレワーク「アバターワーク」を提案する。
アバターワークでは、障害のある人は、提案されたロボット「おりひめd」をマウスで操作したり、自分の障害に応じて視線入力をしたりすることで、リモートで身体作業を行うことができる。
アバターワークのソーシャル実装イニシアチブとして、2週間の限定アバターロボットカフェを開設し、OriHime-Dを用いて障害者によるリモート雇用の評価を行った。
障害のある10名による結果として,提案するアバター作業は,障害のある人のメンタルフルフィルメントにつながり,適応可能な作業負荷で設計できることを確認した。
また, 実験カフェの作業内容は, 社会参加を求める多様な障害者に適していることを確認した。
本研究は、生活と生涯の作業を通してのフルフィルメントに寄与し、同時に、雇用不足問題への解決策となる。
関連論文リスト
- Habitat 3.0: A Co-Habitat for Humans, Avatars and Robots [119.55240471433302]
Habitat 3.0は、家庭環境における協調ロボットタスクを研究するためのシミュレーションプラットフォームである。
複雑な変形可能な体と外観と運動の多様性をモデル化する際の課題に対処する。
Human-in-the-loopインフラストラクチャは、マウス/キーボードまたはVRインターフェースを介してシミュレーションされたロボットとの実際のヒューマンインタラクションを可能にする。
論文 参考訳(メタデータ) (2023-10-19T17:29:17Z) - Unveiling Technorelief: Enhancing Neurodiverse Collaboration with Media
Capabilities [0.0]
自閉症労働者の認知的・社会的影響体験に対するコラボレーションの影響は理解されていない。
デジタル技術が自閉症労働者の協調作業環境の経験をいかに軽減するかを問う。
結果として生じる「テクノレリーフ」は、自閉症労働者が自身の知覚を調整し、共同体験のコントロールを取り戻すことを可能にする。
論文 参考訳(メタデータ) (2023-10-02T07:41:48Z) - Multi-Agent Deep Reinforcement Learning for Dynamic Avatar Migration in
AIoT-enabled Vehicular Metaverses with Trajectory Prediction [70.9337170201739]
本稿では,その歴史データに基づいて,知的車両の将来の軌跡を予測するモデルを提案する。
提案アルゴリズムは,予測なしでアバタータスクの実行遅延を約25%削減できることを示す。
論文 参考訳(メタデータ) (2023-06-26T13:27:11Z) - Design, Development, and Evaluation of an Interactive Personalized
Social Robot to Monitor and Coach Post-Stroke Rehabilitation Exercises [68.37238218842089]
パーソナライズされたリハビリテーションのための対話型ソーシャルロボット運動指導システムを開発した。
このシステムは、ニューラルネットワークモデルとルールベースのモデルを統合し、患者のリハビリテーション運動を自動的に監視し、評価する。
我々のシステムは,新たな参加者に適応し,専門家の合意レベルに匹敵する,エクササイズを評価するための平均パフォーマンス0.81を達成できる。
論文 参考訳(メタデータ) (2023-05-12T17:37:04Z) - The Work Avatar Face-Off: Knowledge Worker Preferences for Realism in
Meetings [0.0]
複数の国の知識労働者2509名を対象に,マネージャ,既知の同僚,未知の同僚が使用するためのアバタースタイルを5つ評価した。
あらゆるシナリオにおいて、参加者はより高いリアリズムを好んだが、完全に現実的なアバターは時々不気味であると認識された。
アバターは、未知の同僚やマネージャーと対話する際に、既知の同僚と比べて、より現実的な評価が下がった。
論文 参考訳(メタデータ) (2023-04-03T22:43:20Z) - Interaction in Remote Peddling Using Avatar Robot by People with
Disabilities [0.057725463942541105]
本研究では,モバイルフリーズドリンクマシンとアバターロボット「OriHime」を用いたモバイル販売システムを提案する。
ビデオアノテーションの結果をもとに,システムによるペドリングが顧客に与える影響について検討した。
論文 参考訳(メタデータ) (2022-12-02T08:55:51Z) - What Do End-Users Really Want? Investigation of Human-Centered XAI for
Mobile Health Apps [69.53730499849023]
説明可能なAI(XAI)を評価するために,ユーザ中心のペルソナ概念を提案する。
分析の結果,ユーザの人口統計や性格,説明のタイプ,影響説明の嗜好が示された。
私たちの洞察は、対話的で人間中心のXAIを実践的な応用に近づけます。
論文 参考訳(メタデータ) (2022-10-07T12:51:27Z) - Meta Avatar Robot Cafe: Linking Physical and Virtual Cybernetic Avatars
to Provide Physical Augmentation for People with Disabilities [1.4017836211792967]
私たちは、外出が困難な障害者が、自分の身体と仮想体を自由に切り替えることができ、その存在と暖かさを互いに伝えることができる場所を作りました。
私たちは、外出が困難な障害者が、自分の身体と仮想体を自由に切り替えることができ、その存在と暖かさを互いに伝えることができる場所を作りました。
論文 参考訳(メタデータ) (2022-07-18T09:58:07Z) - A trained humanoid robot can perform human-like crossmodal social
attention conflict resolution [13.059378830912912]
本研究は,iCubロボットが人間のような社会的注意反応を表現できるようにするために,視線トリガーによる音声・視覚のクロスモーダル統合という神経ロボティックなパラダイムを採用した。
マスクは、アバターの目以外のすべての顔の視覚的手がかりをカバーするために使用された。
アバターの視線は、不一致状態よりも、聴覚・視覚のコングルーエント状態において、より優れた人間のパフォーマンスで、横断的な社会的な注意を喚起する可能性があることを観察した。
論文 参考訳(メタデータ) (2021-11-02T21:49:52Z) - Show Me What You Can Do: Capability Calibration on Reachable Workspace
for Human-Robot Collaboration [83.4081612443128]
本稿では,REMPを用いた短時間キャリブレーションにより,ロボットが到達できると考える非専門家と地道とのギャップを効果的に埋めることができることを示す。
この校正手順は,ユーザ認識の向上だけでなく,人間とロボットのコラボレーションの効率化にも寄与することを示す。
論文 参考訳(メタデータ) (2021-03-06T09:14:30Z) - Joint Mind Modeling for Explanation Generation in Complex Human-Robot
Collaborative Tasks [83.37025218216888]
本稿では,人間とロボットのコラボレーションにおいて,人間のようなコミュニケーションを実現するための新しい説明可能なAI(XAI)フレームワークを提案する。
ロボットは、人間のユーザの階層的なマインドモデルを構築し、コミュニケーションの一形態として自身のマインドの説明を生成する。
その結果,提案手法はロボットの協調動作性能とユーザ認識を著しく向上させることがわかった。
論文 参考訳(メタデータ) (2020-07-24T23:35:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。