論文の概要: Converting the Point of View of Messages Spoken to Virtual Assistants
- arxiv url: http://arxiv.org/abs/2010.02600v2
- Date: Thu, 8 Oct 2020 01:31:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-10 05:08:45.651009
- Title: Converting the Point of View of Messages Spoken to Virtual Assistants
- Title(参考訳): メッセージの視点を仮想アシスタントに変換する
- Authors: Isabelle G. Lee, Vera Zu, Sai Srujana Buddi, Dennis Liang, Purva
Kulkarni, Jack G.M. Fitzgerald
- Abstract要約: 我々は、仮想アシスタントが1人のユーザーから音声メッセージを受信し、メッセージの視点を変換し、ターゲットユーザーに結果を提供するシステムを構築した。
本研究では, 線形テキスト分類モデル, パート・オブ・音声タギング, 選挙区解析を統合したルールベースモデルを開発した。
我々は46,565個のクラウドソースサンプルからなるデータセットを公開しました。
- 参考スコア(独自算出の注目度): 0.9949801888214528
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Virtual Assistants can be quite literal at times. If the user says "tell Bob
I love him," most virtual assistants will extract the message "I love him" and
send it to the user's contact named Bob, rather than properly converting the
message to "I love you." We designed a system to allow virtual assistants to
take a voice message from one user, convert the point of view of the message,
and then deliver the result to its target user. We developed a rule-based
model, which integrates a linear text classification model, part-of-speech
tagging, and constituency parsing with rule-based transformation methods. We
also investigated Neural Machine Translation (NMT) approaches, including LSTMs,
CopyNet, and T5. We explored 5 metrics to gauge both naturalness and
faithfulness automatically, and we chose to use BLEU plus METEOR for
faithfulness and relative perplexity using a separately trained language model
(GPT) for naturalness. Transformer-Copynet and T5 performed similarly on
faithfulness metrics, with T5 achieving slight edge, a BLEU score of 63.8 and a
METEOR score of 83.0. CopyNet was the most natural, with a relative perplexity
of 1.59. CopyNet also has 37 times fewer parameters than T5. We have publicly
released our dataset, which is composed of 46,565 crowd-sourced samples.
- Abstract(参考訳): 仮想アシスタントは時々非常にリテラルがある。
もしユーザーが「ボブを愛している」と言うと、ほとんどの仮想アシスタントは「私は彼を愛している」というメッセージを抽出し、それをユーザーの連絡先である「ボブ」に送信する。
我々は,仮想アシスタントがひとつのユーザから音声メッセージを受信し,メッセージの視点を変換し,対象ユーザに提供するシステムを構築した。
我々はルールベースモデルを開発し、線形テキスト分類モデル、パート・オブ・音声タギング、および行列解析をルールベース変換法と統合した。
また、LSTM、CopyNet、T5を含むニューラルネットワーク翻訳(NMT)アプローチについても検討した。
自然度と忠実度を自動測定するための5つの指標を検討した結果,自然度を別途訓練した言語モデル(gpt)を用いて,bleuとmeteorを忠実度と相対的パープレキシティに使用することにした。
Transformer-CopynetとT5も同様に忠実度の測定を行い、T5はわずかにエッジ、BLEUスコアは63.8、METEORスコアは83.0を記録した。
CopyNetは最も自然であり、相対的なパープレキシティは1.59である。
CopyNetのパラメータはT5の37倍も少ない。
我々は46,565個のクラウドソースサンプルからなるデータセットを公開しました。
関連論文リスト
- mmT5: Modular Multilingual Pre-Training Solves Source Language
Hallucinations [54.42422445568523]
mmT5はモジュール型多言語シーケンス・ツー・シーケンスモデルである。
言語固有の情報を言語に依存しない情報から切り離す。
mT5と比較して、mT5はゼロショット設定で正しい言語でテキストを生成する率を7%から99%に向上させる。
論文 参考訳(メタデータ) (2023-05-23T16:38:01Z) - Paraphrasing evades detectors of AI-generated text, but retrieval is an
effective defense [56.077252790310176]
本稿では,パラフレーズ生成モデル(DIPPER)を提案する。
DIPPERを使って3つの大きな言語モデル(GPT3.5-davinci-003)で生成されたテキストを言い換えると、透かしを含むいくつかの検出器を回避できた。
我々は,言語モデルAPIプロバイダによって維持されなければならない,意味論的に類似した世代を検索するシンプルなディフェンスを導入する。
論文 参考訳(メタデータ) (2023-03-23T16:29:27Z) - Unsupervised Data Selection for TTS: Using Arabic Broadcast News as a
Case Study [44.07589545984369]
本稿では、自動データ選択と事前学習/微調整戦略を含む、TS構築のための完全に教師なしの手法を提案する。
我々は,データの選択を慎重に行うことで,TSシステムの効率が向上することを示す。
評価の結果,CERは3.9%,CERは1.3%であった。
論文 参考訳(メタデータ) (2023-01-22T10:41:58Z) - Evaluating Byte and Wordpiece Level Models for Massively Multilingual
Semantic Parsing [3.431659287330068]
バイトレベル(ByT5)とワードピースベース(mT5)をMASSIVE多言語意味解析データセットの51言語におけるシーケンスモデルと比較する。
すべての言語からのゴールドデータに基づいてトレーニングされたモデルに対して、正確なマッチング精度のギャップを5ポイントに縮めることができます。
論文 参考訳(メタデータ) (2022-12-14T13:48:32Z) - T5lephone: Bridging Speech and Text Self-supervised Models for Spoken
Language Understanding via Phoneme level T5 [65.32642587901903]
我々は、異なるトークン化戦略を持つPLMが音声言語理解タスクにどのように影響するかを広範囲に研究する。
我々は、音素化されたテキストを使って事前訓練されたT5の変種であるT5lephoneを作成するためのアイデアを拡張した。
論文 参考訳(メタデータ) (2022-11-01T17:00:23Z) - Explain and Conquer: Personalised Text-based Reviews to Achieve
Transparency [0.0]
我々はTripAdvisorプラットフォームに焦点を合わせ、他のdyadicデータコンテキストの適用性について検討した。
我々の目的は、エージェントが確立したペア(ユーザ、レストラン)を表現し、パーソナライゼーションを考慮して説明することである。
我々はPTER(Personalized TExt-based Reviews)モデルを提案し、特定のレストランの利用可能なレビューから、特定のユーザーインタラクションに適合するレビューを予測する。
論文 参考訳(メタデータ) (2022-05-03T20:04:32Z) - Using BERT Encoding to Tackle the Mad-lib Attack in SMS Spam Detection [0.0]
GoogleのBERTのような単語の意味や文脈に敏感な言語モデルが、この敵対的攻撃を克服するのに有用かどうかを検討する。
5572のSMSスパムメッセージのデータセットを用いて,まず検出性能の基準を確立した。
そして、これらのメッセージに含まれる語彙のシソーラスを構築し、Mad-lib攻撃実験をセットアップした。
その結果、従来のモデルは元のデータセットで94%のバランス精度(BA)を達成したのに対し、BERTモデルは96%を得た。
論文 参考訳(メタデータ) (2021-07-13T21:17:57Z) - mT6: Multilingual Pretrained Text-to-Text Transformer with Translation
Pairs [51.67970832510462]
翻訳ペア(mt6)を用いた多言語テキスト間トランスフォーマーの改良
本研究では,機械翻訳,翻訳ペアスパン破壊,翻訳スパン破壊という3つの言語間事前学習タスクについて検討した。
実験の結果,mT6はmT5よりも舌間移動性が向上することがわかった。
論文 参考訳(メタデータ) (2021-04-18T03:24:07Z) - mT5: A massively multilingual pre-trained text-to-text transformer [60.0210636815514]
The Text-to-Text Transfer Transformer (T5) は、統一されたテキスト・トゥ・テキストフォーマットとスケールを利用して、英語のNLPタスクで最先端の結果を得る。
101言語をカバーする新しいCommon Crawlベースのデータセットで事前トレーニングを行ったマルチ言語版T5であるmT5を紹介する。
論文 参考訳(メタデータ) (2020-10-22T17:58:14Z) - Near-imperceptible Neural Linguistic Steganography via Self-Adjusting
Arithmetic Coding [88.31226340759892]
本稿では,ニューラルネットワークモデルに基づく自己調整型算術符号を用いた秘密メッセージを符号化する新しい言語ステガノグラフィー手法を提案する。
人間の評価によると、生成されたカバーテキストの51%は、実際に盗聴器を騙すことができる。
論文 参考訳(メタデータ) (2020-10-01T20:40:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。