論文の概要: Whither the Priors for (Vocal) Interactivity?
- arxiv url: http://arxiv.org/abs/2203.08578v1
- Date: Wed, 16 Mar 2022 12:06:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-17 20:49:26.061356
- Title: Whither the Priors for (Vocal) Interactivity?
- Title(参考訳): 対話性(主観的)の優先事項をウィッシャーする?
- Authors: Roger K. Moore
- Abstract要約: 音声に基づくコミュニケーションは、人間とロボットが対話する最も自然な方法の1つとしてしばしば引用される。
それにもかかわらず、結果として生じる相互作用は自然に他ならない」。
このようなコミュニケーションの失敗は、より深い誤認の兆候である、とここでは主張されている。
- 参考スコア(独自算出の注目度): 6.709659274527638
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Voice-based communication is often cited as one of the most `natural' ways in
which humans and robots might interact, and the recent availability of accurate
automatic speech recognition and intelligible speech synthesis has enabled
researchers to integrate advanced off-the-shelf spoken language technology
components into their robot platforms. Despite this, the resulting interactions
are anything but `natural'. It transpires that simply giving a robot a voice
doesn't mean that a user will know how (or when) to talk to it, and the
resulting `conversations' tend to be stilted, one-sided and short. On the
surface, these difficulties might appear to be fairly trivial consequences of
users' unfamiliarity with robots (and \emph{vice versa}), and that any problems
would be mitigated by long-term use by the human, coupled with `deep learning'
by the robot. However, it is argued here that such communication failures are
indicative of a deeper malaise: a fundamental lack of basic principles --
\emph{priors} -- underpinning not only speech-based interaction in particular,
but (vocal) interactivity in general. This is evidenced not only by the fact
that contemporary spoken language systems already require training data sets
that are orders-of-magnitude greater than that experienced by a young child,
but also by the lack of design principles for creating effective communicative
human-robot interaction. This short position paper identifies some of the key
areas where theoretical insights might help overcome these shortfalls.
- Abstract(参考訳): 音声ベースのコミュニケーションは、人間とロボットが対話する最も「自然な」方法の1つとしてしばしば言及されており、近年、正確な自動音声認識と理解可能な音声合成が利用可能になったことで、研究者は高度な市販の音声技術コンポーネントをロボットプラットフォームに統合できるようになった。
それにもかかわらず、結果として生じる相互作用は‘自然’に過ぎません。
それは、単にロボットに声を与えるだけでは、ユーザーがそれと対話する方法(またはいつ)を知っていないということであり、結果として生じる「会話」は、片思いにしがみつき、短くなる傾向がある。
表面的には、これらの困難は、ユーザがロボットに慣れていないこと(および‘emph{vice versa}’)によってかなり自明な結果となり、どんな問題でもロボットによる「深層学習」と組み合わさって、人間による長期的な使用によって軽減される。
しかし、このようなコミュニケーションの失敗は、基礎原理の基本的な欠如、特に音声に基づく相互作用の基盤となる、より深い誤認の現れである、とここでは主張されている。
これは、現代の音声言語システムでは、幼児が経験したよりもマグニチュードが大きい訓練データセットが既に必要であるだけでなく、効果的なコミュニケーション的人間とロボットの相互作用を生み出すための設計原則が欠如していることによって証明されている。
この短い位置の論文は、これらの欠点を克服するために理論的洞察が役立つかもしれない重要な領域を明らかにした。
関連論文リスト
- No More Mumbles: Enhancing Robot Intelligibility through Speech Adaptation [7.675340768192281]
39名の参加者を対象とした音声理解研究を行った。
実験の結果,音質のよい空間は,知性やユーザ体験と正の相関関係があることが示唆された。
我々は,ロボットの音声パラメータを異なるユーザや空間に適応させる畳み込みニューラルネットワークモデルを開発した。
論文 参考訳(メタデータ) (2024-05-15T21:28:55Z) - Dialogue with Robots: Proposals for Broadening Participation and Research in the SLIVAR Community [57.56212633174706]
自然言語を使って機械と対話する能力は一般的なものになりつつあるが、期待されている。
本稿では,ロボットとの音声対話のこの成長分野の最近の歴史を詳述する。
私たちはコミュニティに3つの提案を提供しています。ひとつは教育、もうひとつはベンチマーク、もうひとつはロボットとの会話に関する言語モデリングです。
論文 参考訳(メタデータ) (2024-04-01T15:03:27Z) - Humane Speech Synthesis through Zero-Shot Emotion and Disfluency Generation [0.6964027823688135]
現代の会話システムは、人間の相互作用の感情的な深さと非流動的な特徴を欠いている。
この欠点に対処するため、我々は革新的な音声合成パイプラインを設計した。
このフレームワーク内では、最先端の言語モデルが、ゼロショット設定で人間のような感情と分散の両方を導入する。
論文 参考訳(メタデータ) (2024-03-31T00:38:02Z) - Real-time Addressee Estimation: Deployment of a Deep-Learning Model on
the iCub Robot [52.277579221741746]
住所推定は、社会ロボットが人間とスムーズに対話するために必要なスキルである。
人間の知覚スキルにインスパイアされたディープラーニングモデルは、iCubロボットに設計、訓練、デプロイされる。
本研究では,人間-ロボットのリアルタイムインタラクションにおいて,そのような実装の手順とモデルの性能について述べる。
論文 参考訳(メタデータ) (2023-11-09T13:01:21Z) - A Human-Robot Mutual Learning System with Affect-Grounded Language
Acquisition and Differential Outcomes Training [0.1812164955222814]
本稿では,ロボットのホメオスタティックなニーズを識別するための,人間とロボットのインタラクション・セットアップを提案する。
我々は,ロボットが内部ニーズに特有のフィードバックを提供する,差分結果学習プロトコルを採用した。
我々は、DOTが人間の学習効率を高めることができるという証拠を発見し、それによってより効率的なロボット言語習得を可能にした。
論文 参考訳(メタデータ) (2023-10-20T09:41:31Z) - SACSoN: Scalable Autonomous Control for Social Navigation [62.59274275261392]
我々は、社会的に邪魔にならないナビゲーションのための政策の訓練方法を開発した。
この反事実的摂動を最小化することにより、共有空間における人間の自然な振る舞いを変えない方法でロボットに行動を促すことができる。
屋内移動ロボットが人間の傍観者と対話する大規模なデータセットを収集する。
論文 参考訳(メタデータ) (2023-06-02T19:07:52Z) - "No, to the Right" -- Online Language Corrections for Robotic
Manipulation via Shared Autonomy [70.45420918526926]
LILACは、実行中に自然言語の修正をオンラインで実施し、適応するためのフレームワークである。
LILACは人間とロボットを個別にターンテイクする代わりに、人間とロボットの間にエージェンシーを分割する。
提案手法は,タスク完了率が高く,ユーザによって主観的に好まれることを示す。
論文 参考訳(メタデータ) (2023-01-06T15:03:27Z) - Robots with Different Embodiments Can Express and Influence Carefulness
in Object Manipulation [104.5440430194206]
本研究では,2つのロボットによるコミュニケーション意図による物体操作の知覚について検討する。
ロボットの動きを設計し,物体の搬送時に注意を喚起するか否かを判断した。
論文 参考訳(メタデータ) (2022-08-03T13:26:52Z) - Understanding Natural Language in Context [13.112390442564442]
我々は、世界の知識に基づくモデルを持ち、このモデルによる推論と計画によって操作する認知ロボットに焦点を当てる。
本研究の目的は,自然言語の発話をロボットのフォーマリズムに翻訳することである。
我々は、既製のSOTA言語モデル、計画ツール、ロボットの知識ベースを組み合わせてコミュニケーションを改善する。
論文 参考訳(メタデータ) (2022-05-25T11:52:16Z) - Introducing the Talk Markup Language (TalkML):Adding a little social
intelligence to industrial speech interfaces [0.0]
自然言語の理解は、AI研究の最も残念な失敗の1つだ。
本稿では、他の分野からアイデアを取り入れて実装した方法について述べる。
論文 参考訳(メタデータ) (2021-05-24T14:25:35Z) - Self-supervised reinforcement learning for speaker localisation with the
iCub humanoid robot [58.2026611111328]
人の顔を見ることは、ノイズの多い環境での音声のフィルタリングに人間が依存するメカニズムの1つである。
スピーカーに目を向けるロボットを持つことは、挑戦的な環境でのASRのパフォーマンスに恩恵をもたらす可能性がある。
本稿では,人間の初期発達に触発された自己指導型強化学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-11-12T18:02:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。