論文の概要: Dialogue with Robots: Proposals for Broadening Participation and Research in the SLIVAR Community
- arxiv url: http://arxiv.org/abs/2404.01158v1
- Date: Mon, 1 Apr 2024 15:03:27 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-03 22:05:48.914926
- Title: Dialogue with Robots: Proposals for Broadening Participation and Research in the SLIVAR Community
- Title(参考訳): ロボットとの対話:SLIVARコミュニティにおける参加と研究の拡大の提案
- Authors: Casey Kennington, Malihe Alikhani, Heather Pon-Barry, Katherine Atwell, Yonatan Bisk, Daniel Fried, Felix Gervits, Zhao Han, Mert Inan, Michael Johnston, Raj Korpan, Diane Litman, Matthew Marge, Cynthia Matuszek, Ross Mead, Shiwali Mohan, Raymond Mooney, Natalie Parde, Jivko Sinapov, Angela Stewart, Matthew Stone, Stefanie Tellex, Tom Williams,
- Abstract要約: 自然言語を使って機械と対話する能力は一般的なものになりつつあるが、期待されている。
本稿では,ロボットとの音声対話のこの成長分野の最近の歴史を詳述する。
私たちはコミュニティに3つの提案を提供しています。ひとつは教育、もうひとつはベンチマーク、もうひとつはロボットとの会話に関する言語モデリングです。
- 参考スコア(独自算出の注目度): 57.56212633174706
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The ability to interact with machines using natural human language is becoming not just commonplace, but expected. The next step is not just text interfaces, but speech interfaces and not just with computers, but with all machines including robots. In this paper, we chronicle the recent history of this growing field of spoken dialogue with robots and offer the community three proposals, the first focused on education, the second on benchmarks, and the third on the modeling of language when it comes to spoken interaction with robots. The three proposals should act as white papers for any researcher to take and build upon.
- Abstract(参考訳): 自然言語を使って機械と対話する能力は、単なる日常ではなく、期待されているものになりつつある。
次のステップは、単なるテキストインターフェースではなく、音声インターフェースであり、コンピュータだけでなく、ロボットを含むすべてのマシンで実現される。
本稿では,ロボットとの音声対話の最近の発展史を概説し,第1部は教育,第2部はベンチマーク,第3部はロボットとの音声対話における言語モデリングに関する3つの提案をコミュニティに提示する。
この3つの提案は、研究者が調査し、構築するためのホワイトペーパーとして機能すべきである。
関連論文リスト
- Exploring Large Language Models to Facilitate Variable Autonomy for Human-Robot Teaming [4.779196219827508]
本稿では,VR(Unity Virtual Reality)設定に基づく,GPTを利用したマルチロボットテストベッド環境のための新しいフレームワークを提案する。
このシステムにより、ユーザーは自然言語でロボットエージェントと対話でき、それぞれが個々のGPTコアで動く。
12人の参加者によるユーザスタディでは、GPT-4の有効性と、さらに重要なのは、マルチロボット環境で自然言語で会話する機会を与えられる際のユーザ戦略について検討している。
論文 参考訳(メタデータ) (2023-12-12T12:26:48Z) - HandMeThat: Human-Robot Communication in Physical and Social
Environments [73.91355172754717]
HandMeThatは、物理的および社会的環境における命令理解とフォローの総合評価のためのベンチマークである。
HandMeThatには、人間とロボットの対話の1万エピソードが含まれている。
オフラインとオンラインの強化学習アルゴリズムはHandMeThatでは性能が良くないことを示す。
論文 参考訳(メタデータ) (2023-10-05T16:14:46Z) - WALL-E: Embodied Robotic WAiter Load Lifting with Large Language Model [92.90127398282209]
本稿では,最新のLarge Language Models(LLM)と既存のビジュアルグラウンドとロボットグルーピングシステムを統合する可能性について検討する。
本稿では,この統合の例としてWALL-E (Embodied Robotic WAiter load lifting with Large Language model)を紹介する。
我々は,このLCMを利用したシステムを物理ロボットに展開し,よりユーザフレンドリなインタフェースで指導誘導型把握タスクを実現する。
論文 参考訳(メタデータ) (2023-08-30T11:35:21Z) - Interactive Conversational Head Generation [68.76774230274076]
対面会話における1つのインターロケータの振る舞いを合成するための新しい対話ヘッド生成ベンチマークを提案する。
長時間・複数回会話に参加可能なインターロカクタを自動的に合成する機能は不可欠であり、様々なアプリケーションにメリットを提供する。
論文 参考訳(メタデータ) (2023-07-05T08:06:26Z) - Evaluating Human-Language Model Interaction [79.33022878034627]
我々は,対話型システムのコンポーネントを定義する,HALIE(Human-AI Language-based Interaction Evaluation)という新しいフレームワークを開発した。
ソーシャル対話,質問応答,クロスワードパズル,要約,メタファ生成という,対話のさまざまな形態をカバーする5つのタスクを設計する。
より優れた非対話的性能は、必ずしもより良い人間とLMの相互作用に必ずしも変換されない。
論文 参考訳(メタデータ) (2022-12-19T18:59:45Z) - Understanding Natural Language in Context [13.112390442564442]
我々は、世界の知識に基づくモデルを持ち、このモデルによる推論と計画によって操作する認知ロボットに焦点を当てる。
本研究の目的は,自然言語の発話をロボットのフォーマリズムに翻訳することである。
我々は、既製のSOTA言語モデル、計画ツール、ロボットの知識ベースを組み合わせてコミュニケーションを改善する。
論文 参考訳(メタデータ) (2022-05-25T11:52:16Z) - Robotic Speech Synthesis: Perspectives on Interactions, Scenarios, and
Ethics [2.6959411243976175]
本稿では,非言語および対話指向音声信号,特にバックチャネルの合成の難しさについて論じる。
我々は,人間-ロボットインタラクション研究者の注意を引き、より優れた対話型ロボットを設計することを目的として,関連文献と先行研究の成果を提示する。
論文 参考訳(メタデータ) (2022-03-17T20:24:17Z) - Whither the Priors for (Vocal) Interactivity? [6.709659274527638]
音声に基づくコミュニケーションは、人間とロボットが対話する最も自然な方法の1つとしてしばしば引用される。
それにもかかわらず、結果として生じる相互作用は自然に他ならない」。
このようなコミュニケーションの失敗は、より深い誤認の兆候である、とここでは主張されている。
論文 参考訳(メタデータ) (2022-03-16T12:06:46Z) - Self-supervised reinforcement learning for speaker localisation with the
iCub humanoid robot [58.2026611111328]
人の顔を見ることは、ノイズの多い環境での音声のフィルタリングに人間が依存するメカニズムの1つである。
スピーカーに目を向けるロボットを持つことは、挑戦的な環境でのASRのパフォーマンスに恩恵をもたらす可能性がある。
本稿では,人間の初期発達に触発された自己指導型強化学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-11-12T18:02:15Z) - Spoken Language Interaction with Robots: Research Issues and
Recommendations, Report from the NSF Future Directions Workshop [0.819605661841562]
人間のニーズを満たすには、音声技術とユーザーエクスペリエンス設計における新しい課題に対処する必要がある。
大規模な再設計や大規模なトレーニングデータの収集なしに、より強力な適応手法が必要である。
ロボットはリアルタイムで動作するため、音声処理や言語処理も必要である。
論文 参考訳(メタデータ) (2020-11-11T03:45:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。