論文の概要: Metaversal Learning Environments: Measuring, predicting and improving
interpersonal effectiveness
- arxiv url: http://arxiv.org/abs/2205.02875v1
- Date: Thu, 5 May 2022 18:22:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-09 13:54:59.408573
- Title: Metaversal Learning Environments: Measuring, predicting and improving
interpersonal effectiveness
- Title(参考訳): メタバーサル学習環境:対人効果の測定・予測・改善
- Authors: Arjun Nagendran, Scott Compton, William Follette, Artem Golenchenko,
Anna Compton, Jonathan Grizou
- Abstract要約: 人工知能と仮想現実を組み合わせた新しいアーキテクチャを導入し,アバターを用いた没入型学習体験を実現する。
このフレームワークは、アバターと相互作用する個人の対人効果を測定することができる。
その結果, 対人効果に欠ける個人は, アバターとの相互作用が複数あった後, パフォーマンスが著しく向上したことが明らかとなった。
- 参考スコア(独自算出の注目度): 2.6424064030995957
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Experiential learning has been known to be an engaging and effective modality
for personal and professional development. The Metaverse provides ample
opportunities for the creation of environments in which such experiential
learning can occur. In this work, we introduce a novel architecture that
combines Artificial intelligence and Virtual Reality to create a highly
immersive and efficient learning experience using avatars. The framework allows
us to measure the interpersonal effectiveness of an individual interacting with
the avatar. We first present a small pilot study and its results which were
used to enhance the framework. We then present a larger study using the
enhanced framework to measure, assess, and predict the interpersonal
effectiveness of individuals interacting with an avatar. Results reveal that
individuals with deficits in their interpersonal effectiveness show a
significant improvement in performance after multiple interactions with an
avatar. The results also reveal that individuals interact naturally with
avatars within this framework, and exhibit similar behavioral traits as they
would in the real world. We use this as a basis to analyze the underlying audio
and video data streams of individuals during these interactions. Finally, we
extract relevant features from these data and present a machine-learning based
approach to predict interpersonal effectiveness during human-avatar
conversation. We conclude by discussing the implications of these findings to
build beneficial applications for the real world.
- Abstract(参考訳): 経験的学習は、個人的および専門的な発達にとって魅力的で効果的なモダリティであることが知られている。
メタバースはそのような経験的な学習ができる環境を作るための十分な機会を提供する。
本研究では,人工知能と仮想現実を組み合わせて,アバターを用いた没入的かつ効率的な学習体験を実現する新しいアーキテクチャを提案する。
このフレームワークは、アバターと相互作用する個人の対人効果を測定することができる。
まず,この枠組みの強化に用いたパイロット実験を行い,その成果について述べる。
次に、アバターと相互作用する個人の対人効果を測定し、評価し、予測するための強化された枠組みを用いたより大きな研究を提案する。
その結果, 対人効果に欠ける個人は, アバターとの相互作用が複数あった後, パフォーマンスが著しく向上したことが明らかとなった。
結果はまた、個人がこの枠組み内でアバターと自然に相互作用し、現実世界と同じような行動特性を示すことも明らかにしている。
私たちは、これらのインタラクションの間、個人のオーディオおよびビデオデータストリームを分析するために、これを基礎として使用します。
最後に,これらのデータから関連する特徴を抽出し,人間とアバタの会話における対人効果を予測するための機械学習手法を提案する。
実世界の有益なアプリケーションを構築するために,これらの発見がもたらす意味について論じる。
関連論文リスト
- Visual-Geometric Collaborative Guidance for Affordance Learning [63.038406948791454]
本稿では,視覚的・幾何学的手がかりを取り入れた視覚・幾何学的協調学習ネットワークを提案する。
本手法は,客観的指標と視覚的品質の代表的なモデルより優れている。
論文 参考訳(メタデータ) (2024-10-15T07:35:51Z) - The Power of Combined Modalities in Interactive Robot Learning [0.0]
本研究では,人間とのインタラクションにおけるロボット学習の進化に寄与し,多様な入力モダリティが学習結果に与える影響について検討する。
これは「メタモダリティ」の概念を導入し、従来の嗜好やスカラーフィードバックのメカニズムを超えて、さらなるフィードバックの形式をカプセル化する。
論文 参考訳(メタデータ) (2024-05-13T14:59:44Z) - Improving Visual Perception of a Social Robot for Controlled and
In-the-wild Human-robot Interaction [10.260966795508569]
ソーシャルロボットが深層学習に基づく視覚知覚モデルを採用すると、客観的相互作用性能と主観的ユーザ体験がどう影響するかは明らかでない。
我々は、ペッパーロボットの視覚知覚機能を改善するために、最先端の人間の知覚と追跡モデルを用いている。
論文 参考訳(メタデータ) (2024-03-04T06:47:06Z) - Flexible social inference facilitates targeted social learning when
rewards are not observable [58.762004496858836]
グループは、個人が他人の成功から学べるときにより効果的にコーディネートする。
社会的推論能力は、このギャップを埋める助けとなり、個人が他人の基本的な知識に対する信念を更新し、観察可能な行動軌跡から成功することを示唆する。
論文 参考訳(メタデータ) (2022-12-01T21:04:03Z) - Co-Located Human-Human Interaction Analysis using Nonverbal Cues: A
Survey [71.43956423427397]
本研究の目的は,非言語的キューと計算手法を同定し,効果的な性能を実現することである。
この調査は、最も広い範囲の社会現象と相互作用設定を巻き込むことによって、相手と異なる。
もっともよく使われる非言語キュー、計算方法、相互作用環境、センシングアプローチは、それぞれマイクとカメラを備えた3,4人で構成される会話活動、ベクターマシンのサポート、ミーティングである。
論文 参考訳(メタデータ) (2022-07-20T13:37:57Z) - Skeleton-Based Mutually Assisted Interacted Object Localization and
Human Action Recognition [111.87412719773889]
本研究では,骨格データに基づく「相互作用対象の局所化」と「人間の行動認識」のための共同学習フレームワークを提案する。
本手法は,人間の行動認識のための最先端の手法を用いて,最高の,あるいは競争的な性能を実現する。
論文 参考訳(メタデータ) (2021-10-28T10:09:34Z) - Cognitive architecture aided by working-memory for self-supervised
multi-modal humans recognition [54.749127627191655]
人間パートナーを認識する能力は、パーソナライズされた長期的な人間とロボットの相互作用を構築するための重要な社会的スキルです。
ディープラーニングネットワークは最先端の結果を達成し,そのような課題に対処するための適切なツールであることが実証された。
1つの解決策は、ロボットに自己スーパービジョンで直接の感覚データから学習させることである。
論文 参考訳(メタデータ) (2021-03-16T13:50:24Z) - Unsupervised Representations Predict Popularity of Peer-Shared Artifacts
in an Online Learning Environment [4.438259529250529]
我々は, (a) 文脈行動ログ (b) テキストの内容, (c) インストラクターが特定した特徴の集合によって, 学生の成果物を表現している。
文脈的行動ログから学習したニューラルネットワークの埋め込み表現が,人気を最も強く予測していることがわかった。
この表現は、人間のラベル付けの努力を伴わずに学習できるため、より包括的な学生の相互作用を形作る可能性が開ける。
論文 参考訳(メタデータ) (2021-02-27T09:13:09Z) - Expertise and confidence explain how social influence evolves along
intellective tasks [10.525352489242396]
本研究では,知的なタスクの連続を集団的に実行する個人集団における対人的影響について検討する。
本稿では, 過渡記憶系の理論, 社会的比較, 社会的影響の起源に関する信頼に関する実証的証拠を報告する。
これらの理論にインスパイアされた認知力学モデルを提案し、個人が時間とともに対人的影響を調整する過程を記述する。
論文 参考訳(メタデータ) (2020-11-13T23:48:25Z) - Human Trajectory Forecasting in Crowds: A Deep Learning Perspective [89.4600982169]
本稿では,既存の深層学習に基づくソーシャルインタラクションのモデル化手法について詳細に分析する。
本稿では、これらの社会的相互作用を効果的に捉えるための知識に基づく2つのデータ駆動手法を提案する。
我々は,人間の軌道予測分野において,重要かつ欠落したコンポーネントであるTrajNet++を大規模に開発する。
論文 参考訳(メタデータ) (2020-07-07T17:19:56Z) - SensAI+Expanse Emotional Valence Prediction Studies with Cognition and
Memory Integration [0.0]
この研究は、認知科学研究を支援することができる人工知能エージェントに貢献する。
開発された人工知能システム(SensAI+Expanse)には、機械学習アルゴリズム、共感アルゴリズム、メモリが含まれる。
本研究は, 年齢と性別の相違が有意であることを示すものである。
論文 参考訳(メタデータ) (2020-01-03T18:17:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。