論文の概要: Implementation of Google Assistant & Amazon Alexa on Raspberry Pi
- arxiv url: http://arxiv.org/abs/2006.08220v1
- Date: Mon, 15 Jun 2020 08:46:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-21 05:12:55.030485
- Title: Implementation of Google Assistant & Amazon Alexa on Raspberry Pi
- Title(参考訳): Raspberry PiにおけるGoogle AssistantとAmazon Alexaの実装
- Authors: Shailesh D. Arya, Dr. Samir Patel
- Abstract要約: 本稿では,Raspberry Pi上での音声対応Google AssistantとAmazon Alexaの実装について検討する。
音声対応システムは基本的に、音声を入力として処理し、その入力の意味を理解し、適切な音声出力を生成するシステムを意味する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper investigates the implementation of voice-enabled Google Assistant
and Amazon Alexa on Raspberry Pi. Virtual Assistants are being a new trend in
how we interact or do computations with physical devices. A voice-enabled
system essentially means a system that processes voice as an input, decodes, or
understands the meaning of that input and generates an appropriate voice
output. In this paper, we are developing a smart speaker prototype that has the
functionalities of both in the same Raspberry Pi. Users can invoke a virtual
assistant by saying the hot words and can leverage the best services of both
eco-systems. This paper also explains the complex architecture of Google
Assistant and Amazon Alexa and the working of both assistants as well. Later,
this system can be used to control the smart home IoT devices.
- Abstract(参考訳): 本稿では,Raspberry Pi上での音声対応Google AssistantとAmazon Alexaの実装について検討する。
仮想アシスタントは、物理デバイスとのインタラクションや計算の方法の新しいトレンドだ。
音声対応システムは基本的に、音声を入力として処理し、その入力の意味を理解し、適切な音声出力を生成するシステムを意味する。
本稿では,同じraspberry piで両方の機能を持つスマートスピーカーのプロトタイプを開発している。
ユーザはホットワードを言って仮想アシスタントを呼び出すことができ、両方のエコシステムの最高のサービスを利用することができます。
本稿は、Google AssistantとAmazon Alexaの複雑なアーキテクチャと、両方のアシスタントの動作についても説明する。
その後、このシステムはスマートホームIoTデバイスを制御するために使用できる。
関連論文リスト
- Evaluating Synthetic Command Attacks on Smart Voice Assistants [2.91784559412979]
単純な結合音声合成であっても、攻撃者が音声アシスタントに繊細な操作を指示するために使用できることを示す。
以上の結果から、音声アシスタントをターゲットとする合成悪意のあるコマンドに対するより良い防御の必要性が示された。
論文 参考訳(メタデータ) (2024-11-13T03:51:58Z) - AudioPaLM: A Large Language Model That Can Speak and Listen [79.44757696533709]
本稿では,音声理解・生成のための大規模言語モデルであるAudioPaLMを紹介する。
AudioPaLMはテキストベースの言語モデルと音声ベースの言語モデルを融合する。
音声認識や音声音声翻訳などの応用により、テキストと音声を処理および生成することができる。
論文 参考訳(メタデータ) (2023-06-22T14:37:54Z) - Rewriting the Script: Adapting Text Instructions for Voice Interaction [39.54213483588498]
音声アシスタントが複雑なタスクガイダンスにもたらす支配的アプローチの限界について検討する。
そこで本稿では,音声アシスタントが音声対話を通じて容易にコミュニケーションできる形態に変換できる8つの方法を提案する。
論文 参考訳(メタデータ) (2023-06-16T17:43:00Z) - AudioGPT: Understanding and Generating Speech, Music, Sound, and Talking
Head [82.69233563811487]
大規模言語モデル(LLM)は、さまざまな領域やタスクにまたがって顕著な能力を示し、学習と認知の理解に挑戦しています。
本稿では,LLMを基本モデルで補完し,複雑な音声情報を処理するマルチモーダルAIシステムであるAudioGPTを提案する。
論文 参考訳(メタデータ) (2023-04-25T17:05:38Z) - Virtual Mouse And Assistant: A Technological Revolution Of Artificial
Intelligence [0.0]
本研究の目的は,仮想アシスタントの性能を向上させることである。
仮想アシスタントは、自分で完了できる特定のスマートフォンやPCのアクティビティを実質的に完了させることができる。
論文 参考訳(メタデータ) (2023-03-11T05:00:06Z) - SkillFence: A Systems Approach to Practically Mitigating Voice-Based
Confusion Attacks [9.203566746598439]
最近の研究によると、Amazon AlexaやGoogle Homeのような商用システムは、音声による混乱攻撃に弱い。
この種の攻撃に対するシステム指向の防御を提案し、Amazon Alexaの機能を実証する。
SkilIFenceは、既存の音声アシスタントユーザーがインストールできるブラウザ拡張機能で、コマンドに応答して適切なスキルのみを実行することを保証します。
論文 参考訳(メタデータ) (2022-12-16T22:22:04Z) - The MIT Voice Name System [53.473846742702854]
我々は,音声対話を電話番号などの他のシステムと同様のユニバーサルリーチに標準化することを目指している。
音声をIoTオブジェクトと通信するための出発点として重視しています。
プライバシーとセキュリティは、音声からテキストへの誤りと音声サンプルに含まれる個人情報の量によって考慮される重要な要素である。
論文 参考訳(メタデータ) (2022-03-28T19:09:26Z) - Dynamic Acoustic Unit Augmentation With BPE-Dropout for Low-Resource
End-to-End Speech Recognition [62.94773371761236]
我々は、OOVレートの高い低リソースセットアップで効果的なエンドツーエンドASRシステムを構築することを検討します。
本稿では,BPE-dropout法に基づく動的音響ユニット拡張法を提案する。
我々の単言語トルココンフォーマーは22.2%の文字誤り率(CER)と38.9%の単語誤り率(WER)の競争結果を確立した。
論文 参考訳(メタデータ) (2021-03-12T10:10:13Z) - Self-supervised reinforcement learning for speaker localisation with the
iCub humanoid robot [58.2026611111328]
人の顔を見ることは、ノイズの多い環境での音声のフィルタリングに人間が依存するメカニズムの1つである。
スピーカーに目を向けるロボットを持つことは、挑戦的な環境でのASRのパフォーマンスに恩恵をもたらす可能性がある。
本稿では,人間の初期発達に触発された自己指導型強化学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-11-12T18:02:15Z) - VQVC+: One-Shot Voice Conversion by Vector Quantization and U-Net
architecture [71.45920122349628]
自動エンコーダベースのVC手法は、話者のアイデンティティを付与することなく、入力音声中の話者とコンテンツをアンタングルする。
自動エンコーダベースのVCシステムでは,U-Netアーキテクチャを用いて音質を向上する。
論文 参考訳(メタデータ) (2020-06-07T14:01:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。