論文の概要: A Multi-Modal Explainability Approach for Human-Aware Robots in Multi-Party Conversation
- arxiv url: http://arxiv.org/abs/2407.03340v1
- Date: Mon, 20 May 2024 13:09:32 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-22 22:09:04.987869
- Title: A Multi-Modal Explainability Approach for Human-Aware Robots in Multi-Party Conversation
- Title(参考訳): 多人数会話におけるヒューマン・アウェア・ロボットのマルチモーダル説明可能性アプローチ
- Authors: Iveta Bečková, Štefan Pócoš, Giulia Belgiovine, Marco Matarese, Alessandra Sciutti, Carlo Mazzola,
- Abstract要約: 本稿では,従来のSOTAと比較して性能が向上したアドレス推定モデルを提案する。
また、上記のアーキテクチャに説明可能性と透明性を組み込むいくつかの方法を提案する。
- 参考スコア(独自算出の注目度): 39.87346821309096
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The addressee estimation (understanding to whom somebody is talking) is a fundamental task for human activity recognition in multi-party conversation scenarios. Specifically, in the field of human-robot interaction, it becomes even more crucial to enable social robots to participate in such interactive contexts. However, it is usually implemented as a binary classification task, restricting the robot's capability to estimate whether it was addressed and limiting its interactive skills. For a social robot to gain the trust of humans, it is also important to manifest a certain level of transparency and explainability. Explainable artificial intelligence thus plays a significant role in the current machine learning applications and models, to provide explanations for their decisions besides excellent performance. In our work, we a) present an addressee estimation model with improved performance in comparison with the previous SOTA; b) further modify this model to include inherently explainable attention-based segments; c) implement the explainable addressee estimation as part of a modular cognitive architecture for multi-party conversation in an iCub robot; d) propose several ways to incorporate explainability and transparency in the aforementioned architecture; and e) perform a pilot user study to analyze the effect of various explanations on how human participants perceive the robot.
- Abstract(参考訳): 住所推定(誰かの話に従えば)は、多人数会話のシナリオにおける人間の行動認識の基本的なタスクである。
具体的には、人間とロボットの相互作用の分野では、このような対話的なコンテキストにソーシャルロボットを参加させることがさらに重要である。
しかし、通常は二分分類タスクとして実装され、ロボットが対処したかどうかを推定し、対話的なスキルを制限する能力を制限する。
社会ロボットが人間の信頼を得るためには、あるレベルの透明性と説明可能性を示すことも重要である。
したがって、説明可能な人工知能は現在の機械学習アプリケーションやモデルにおいて重要な役割を果たす。
私たちの仕事で、私たちは
a) 前のSOTAと比較して性能が向上した宛先推定モデルを示すこと。
b) 本モデルをさらに変更して,本質的に説明可能な注意に基づく区分を含むこと。
c) iCubロボットにおける多人数会話のためのモジュール型認知アーキテクチャの一部として説明可能な宛先推定を実装した。
d) 上記アーキテクチャに説明可能性及び透明性を組み込むためのいくつかの方法を提案する。
e) 被験者がロボットをどのように知覚するかに関する様々な説明の効果を分析するために、パイロットユーザー研究を行う。
関連論文リスト
- Comparing Apples to Oranges: LLM-powered Multimodal Intention Prediction in an Object Categorization Task [17.190635800969456]
意図に基づくヒューマンロボットインタラクション(Human-Robot Interaction, HRI)システムは、ロボットがユーザーの行動を知覚し、解釈することを可能にする。
身振り,ポーズ,表情など,非言語的手がかりを解釈するための階層的アプローチを提案する。
本評価は,LLMが非言語的手がかりを解釈し,文脈理解能力と組み合わせることの可能性を示すものである。
論文 参考訳(メタデータ) (2024-04-12T12:15:14Z) - AntEval: Evaluation of Social Interaction Competencies in LLM-Driven
Agents [65.16893197330589]
大規模言語モデル(LLM)は、幅広いシナリオで人間の振る舞いを再現する能力を示した。
しかし、複雑なマルチ文字のソーシャルインタラクションを扱う能力については、まだ完全には研究されていない。
本稿では,新しいインタラクションフレームワークと評価手法を含むマルチエージェントインタラクション評価フレームワーク(AntEval)を紹介する。
論文 参考訳(メタデータ) (2024-01-12T11:18:00Z) - Real-time Addressee Estimation: Deployment of a Deep-Learning Model on
the iCub Robot [52.277579221741746]
住所推定は、社会ロボットが人間とスムーズに対話するために必要なスキルである。
人間の知覚スキルにインスパイアされたディープラーニングモデルは、iCubロボットに設計、訓練、デプロイされる。
本研究では,人間-ロボットのリアルタイムインタラクションにおいて,そのような実装の手順とモデルの性能について述べる。
論文 参考訳(メタデータ) (2023-11-09T13:01:21Z) - Introspection-based Explainable Reinforcement Learning in Episodic and
Non-episodic Scenarios [14.863872352905629]
イントロスペクションベースのアプローチは、成功の確率を提供するために強化学習エージェントと併用することができる。
イントロスペクションに基づくアプローチは、非エポゾディックなロボティクス環境でもたらされた動作を説明するためにも使用できる。
論文 参考訳(メタデータ) (2022-11-23T13:05:52Z) - Continuous ErrP detections during multimodal human-robot interaction [2.5199066832791535]
我々は,シミュレーションロボットが音声やジェスチャーを通じて人間とコミュニケーションする,マルチモーダルなヒューマンロボットインタラクション(HRI)シナリオを実装した。
人間のパートナーは、ロボットが選択した動作(ポインティングジェスチャー)とロボットの口頭発表(意図)が一致しているかを評価する。
脳波で明らかな、人間によるロボット行動の本質的な評価は、リアルタイムで記録され、オンラインで連続的にセグメンテーションされ、非同期に分類された。
論文 参考訳(メタデータ) (2022-07-25T15:39:32Z) - Data-driven emotional body language generation for social robotics [58.88028813371423]
社会ロボティクスでは、人間型ロボットに感情の身体的表現を生成する能力を与えることで、人間とロボットの相互作用とコラボレーションを改善することができる。
我々は、手作業で設計されたいくつかの身体表現から学習する深層学習データ駆動フレームワークを実装した。
評価実験の結果, 生成した表現の人間同型とアニマシーは手作りの表現と異なる認識が得られなかった。
論文 参考訳(メタデータ) (2022-05-02T09:21:39Z) - Human-Robot Collaboration and Machine Learning: A Systematic Review of
Recent Research [69.48907856390834]
人間ロボットコラボレーション(Human-robot collaboration、HRC)とは、人間とロボットの相互作用を探索する手法である。
本稿では,HRCの文脈における機械学習技術の利用に関する詳細な文献レビューを提案する。
論文 参考訳(メタデータ) (2021-10-14T15:14:33Z) - A MultiModal Social Robot Toward Personalized Emotion Interaction [1.2183405753834562]
本研究では,ロボットインタラクションポリシーを強化するために,強化学習を伴うマルチモーダルヒューマンロボットインタラクション(HRI)フレームワークを実証する。
目標は、ロボットがより自然で魅力的なHRIフレームワークを作れるように、このフレームワークを社会シナリオに適用することだ。
論文 参考訳(メタデータ) (2021-10-08T00:35:44Z) - Joint Inference of States, Robot Knowledge, and Human (False-)Beliefs [90.20235972293801]
本稿では,人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)の認知能力が,ロボットとの相互作用にどのように影響するかを理解するために,対象状態,ロボット知識,人間(時間的)の認知能力の表現にグラフィカルモデルを採用することを提案する。
推論アルゴリズムは、複数のビューにまたがる全てのロボットから個別のpgを融合し、単一のビューから発生したエラーを克服するより効果的な推論能力を得る。
論文 参考訳(メタデータ) (2020-04-25T23:02:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。