論文の概要: Whither the Priors for (Vocal) Interactivity?
- arxiv url: http://arxiv.org/abs/2203.08578v1
- Date: Wed, 16 Mar 2022 12:06:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-17 20:49:26.061356
- Title: Whither the Priors for (Vocal) Interactivity?
- Title(参考訳): 対話性(主観的)の優先事項をウィッシャーする?
- Authors: Roger K. Moore
- Abstract要約: 音声に基づくコミュニケーションは、人間とロボットが対話する最も自然な方法の1つとしてしばしば引用される。
それにもかかわらず、結果として生じる相互作用は自然に他ならない」。
このようなコミュニケーションの失敗は、より深い誤認の兆候である、とここでは主張されている。
- 参考スコア(独自算出の注目度): 6.709659274527638
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Voice-based communication is often cited as one of the most `natural' ways in
which humans and robots might interact, and the recent availability of accurate
automatic speech recognition and intelligible speech synthesis has enabled
researchers to integrate advanced off-the-shelf spoken language technology
components into their robot platforms. Despite this, the resulting interactions
are anything but `natural'. It transpires that simply giving a robot a voice
doesn't mean that a user will know how (or when) to talk to it, and the
resulting `conversations' tend to be stilted, one-sided and short. On the
surface, these difficulties might appear to be fairly trivial consequences of
users' unfamiliarity with robots (and \emph{vice versa}), and that any problems
would be mitigated by long-term use by the human, coupled with `deep learning'
by the robot. However, it is argued here that such communication failures are
indicative of a deeper malaise: a fundamental lack of basic principles --
\emph{priors} -- underpinning not only speech-based interaction in particular,
but (vocal) interactivity in general. This is evidenced not only by the fact
that contemporary spoken language systems already require training data sets
that are orders-of-magnitude greater than that experienced by a young child,
but also by the lack of design principles for creating effective communicative
human-robot interaction. This short position paper identifies some of the key
areas where theoretical insights might help overcome these shortfalls.
- Abstract(参考訳): 音声ベースのコミュニケーションは、人間とロボットが対話する最も「自然な」方法の1つとしてしばしば言及されており、近年、正確な自動音声認識と理解可能な音声合成が利用可能になったことで、研究者は高度な市販の音声技術コンポーネントをロボットプラットフォームに統合できるようになった。
それにもかかわらず、結果として生じる相互作用は‘自然’に過ぎません。
それは、単にロボットに声を与えるだけでは、ユーザーがそれと対話する方法(またはいつ)を知っていないということであり、結果として生じる「会話」は、片思いにしがみつき、短くなる傾向がある。
表面的には、これらの困難は、ユーザがロボットに慣れていないこと(および‘emph{vice versa}’)によってかなり自明な結果となり、どんな問題でもロボットによる「深層学習」と組み合わさって、人間による長期的な使用によって軽減される。
しかし、このようなコミュニケーションの失敗は、基礎原理の基本的な欠如、特に音声に基づく相互作用の基盤となる、より深い誤認の現れである、とここでは主張されている。
これは、現代の音声言語システムでは、幼児が経験したよりもマグニチュードが大きい訓練データセットが既に必要であるだけでなく、効果的なコミュニケーション的人間とロボットの相互作用を生み出すための設計原則が欠如していることによって証明されている。
この短い位置の論文は、これらの欠点を克服するために理論的洞察が役立つかもしれない重要な領域を明らかにした。
関連論文リスト
- Beyond Text: Improving LLM's Decision Making for Robot Navigation via
Vocal Cues [22.539790310630618]
この研究は、人間とロボットの相互作用に使用されるテキストベースのLarge Language Models(LLM)の重大な欠点を強調している。
テキストを超えて、これらの音声応答のパラ言語的特徴に重きを置くことで、この欠点に対処することができる。
『Beyond Text』は、ソーシャルロボットナビゲーションとより広範な人間-ロボットインタラクションの進歩を示す。
論文 参考訳(メタデータ) (2024-02-05T20:11:56Z) - Real-time Addressee Estimation: Deployment of a Deep-Learning Model on
the iCub Robot [52.277579221741746]
住所推定は、社会ロボットが人間とスムーズに対話するために必要なスキルである。
人間の知覚スキルにインスパイアされたディープラーニングモデルは、iCubロボットに設計、訓練、デプロイされる。
本研究では,人間-ロボットのリアルタイムインタラクションにおいて,そのような実装の手順とモデルの性能について述べる。
論文 参考訳(メタデータ) (2023-11-09T13:01:21Z) - A Human-Robot Mutual Learning System with Affect-Grounded Language
Acquisition and Differential Outcomes Training [0.1812164955222814]
本稿では,ロボットのホメオスタティックなニーズを識別するための,人間とロボットのインタラクション・セットアップを提案する。
我々は,ロボットが内部ニーズに特有のフィードバックを提供する,差分結果学習プロトコルを採用した。
我々は、DOTが人間の学習効率を高めることができるという証拠を発見し、それによってより効率的なロボット言語習得を可能にした。
論文 参考訳(メタデータ) (2023-10-20T09:41:31Z) - SACSoN: Scalable Autonomous Control for Social Navigation [62.59274275261392]
我々は、社会的に邪魔にならないナビゲーションのための政策の訓練方法を開発した。
この反事実的摂動を最小化することにより、共有空間における人間の自然な振る舞いを変えない方法でロボットに行動を促すことができる。
屋内移動ロボットが人間の傍観者と対話する大規模なデータセットを収集する。
論文 参考訳(メタデータ) (2023-06-02T19:07:52Z) - "No, to the Right" -- Online Language Corrections for Robotic
Manipulation via Shared Autonomy [70.45420918526926]
LILACは、実行中に自然言語の修正をオンラインで実施し、適応するためのフレームワークである。
LILACは人間とロボットを個別にターンテイクする代わりに、人間とロボットの間にエージェンシーを分割する。
提案手法は,タスク完了率が高く,ユーザによって主観的に好まれることを示す。
論文 参考訳(メタデータ) (2023-01-06T15:03:27Z) - Robots with Different Embodiments Can Express and Influence Carefulness
in Object Manipulation [104.5440430194206]
本研究では,2つのロボットによるコミュニケーション意図による物体操作の知覚について検討する。
ロボットの動きを設計し,物体の搬送時に注意を喚起するか否かを判断した。
論文 参考訳(メタデータ) (2022-08-03T13:26:52Z) - Understanding Natural Language in Context [13.112390442564442]
我々は、世界の知識に基づくモデルを持ち、このモデルによる推論と計画によって操作する認知ロボットに焦点を当てる。
本研究の目的は,自然言語の発話をロボットのフォーマリズムに翻訳することである。
我々は、既製のSOTA言語モデル、計画ツール、ロボットの知識ベースを組み合わせてコミュニケーションを改善する。
論文 参考訳(メタデータ) (2022-05-25T11:52:16Z) - Learning Language-Conditioned Robot Behavior from Offline Data and
Crowd-Sourced Annotation [80.29069988090912]
本研究では,ロボットインタラクションの大規模なオフラインデータセットから視覚に基づく操作タスクを学習する問題について検討する。
クラウドソースの自然言語ラベルを用いたオフラインロボットデータセットの活用を提案する。
提案手法は目標画像仕様と言語条件付き模倣技術の両方を25%以上上回っていることがわかった。
論文 参考訳(メタデータ) (2021-09-02T17:42:13Z) - Introducing the Talk Markup Language (TalkML):Adding a little social
intelligence to industrial speech interfaces [0.0]
自然言語の理解は、AI研究の最も残念な失敗の1つだ。
本稿では、他の分野からアイデアを取り入れて実装した方法について述べる。
論文 参考訳(メタデータ) (2021-05-24T14:25:35Z) - Self-supervised reinforcement learning for speaker localisation with the
iCub humanoid robot [58.2026611111328]
人の顔を見ることは、ノイズの多い環境での音声のフィルタリングに人間が依存するメカニズムの1つである。
スピーカーに目を向けるロボットを持つことは、挑戦的な環境でのASRのパフォーマンスに恩恵をもたらす可能性がある。
本稿では,人間の初期発達に触発された自己指導型強化学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-11-12T18:02:15Z) - Spoken Language Interaction with Robots: Research Issues and
Recommendations, Report from the NSF Future Directions Workshop [0.819605661841562]
人間のニーズを満たすには、音声技術とユーザーエクスペリエンス設計における新しい課題に対処する必要がある。
大規模な再設計や大規模なトレーニングデータの収集なしに、より強力な適応手法が必要である。
ロボットはリアルタイムで動作するため、音声処理や言語処理も必要である。
論文 参考訳(メタデータ) (2020-11-11T03:45:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。