論文の概要: A Multilingual Virtual Guide for Self-Attachment Technique
- arxiv url: http://arxiv.org/abs/2310.18366v1
- Date: Wed, 25 Oct 2023 10:50:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-05 13:40:43.803210
- Title: A Multilingual Virtual Guide for Self-Attachment Technique
- Title(参考訳): セルフアタッチメントのための多言語仮想ガイド
- Authors: Alicia Jiayun Law, Ruoyu Hu, Lisa Alazraki, Anandha Gopalan, Neophytos
Polydorou, Abbas Edalat
- Abstract要約: 本稿では,既存のアウトオブランゲージデータを活用して,マンダリンにおける自己アタッチメント技術(SAT)配信のための対話エージェントを作成するフレームワークを提案する。
我々のフレームワークは大規模な人間翻訳を必要としないが、安全性と信頼性を維持しつつ、同等のパフォーマンスを実現している。
- 参考スコア(独自算出の注目度): 1.099532646524593
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this work, we propose a computational framework that leverages existing
out-of-language data to create a conversational agent for the delivery of
Self-Attachment Technique (SAT) in Mandarin. Our framework does not require
large-scale human translations, yet it achieves a comparable performance whilst
also maintaining safety and reliability. We propose two different methods of
augmenting available response data through empathetic rewriting. We evaluate
our chatbot against a previous, English-only SAT chatbot through non-clinical
human trials (N=42), each lasting five days, and quantitatively show that we
are able to attain a comparable level of performance to the English SAT
chatbot. We provide qualitative analysis on the limitations of our study and
suggestions with the aim of guiding future improvements.
- Abstract(参考訳): 本研究では,既存の言語外データを活用し,マンダリンにおける自己付着技術(SAT)配信のための対話エージェントを作成するための計算フレームワークを提案する。
我々のフレームワークは大規模な人間翻訳を必要としないが、安全性と信頼性を維持しつつ、同等のパフォーマンスを実現している。
共感的書き換えにより利用可能な応答データを拡張する方法を2つ提案する。
従来の英語のみのSATチャットボット(N=42)に対して,5日間の臨床試験(N=42)を通じてチャットボットを評価し,英語のSATチャットボットと同等のパフォーマンスが得られることを示す。
我々は,今後の改善を導くために,研究の限界と提案の質的分析を行う。
関連論文リスト
- Retrieval and Generative Approaches for a Pregnancy Chatbot in Nepali
with Stemmed and Non-Stemmed Data : A Comparative Study [0.0]
ネパール語のデータセットのパフォーマンスは、それぞれのアプローチで分析されている。
BERTをベースとした事前学習モデルでは,スクラッチトランスフォーマーモデルではスクラッチデータの性能が良好である。
論文 参考訳(メタデータ) (2023-11-12T17:16:46Z) - A Transfer Learning Based Model for Text Readability Assessment in
German [4.550811027560416]
移動学習に基づくドイツ語テキストのテキスト複雑性評価のための新しいモデルを提案する。
最高のモデルはBERTの事前訓練言語モデルに基づいており、Root Mean Square Error (RMSE) は 0.483 である。
論文 参考訳(メタデータ) (2022-07-13T15:15:44Z) - No Language Left Behind: Scaling Human-Centered Machine Translation [69.28110770760506]
低レベルの言語と高レベルの言語のパフォーマンスギャップを狭めるためのデータセットとモデルを作成します。
何千ものタスクをトレーニングしながらオーバーフィッティングに対処するために,複数のアーキテクチャとトレーニングの改善を提案する。
本モデルでは,従来の最先端技術と比較して,BLEUの44%の改善を実現している。
論文 参考訳(メタデータ) (2022-07-11T07:33:36Z) - Scheduled Multi-task Learning for Neural Chat Translation [66.81525961469494]
ニューラルチャット翻訳(NCT)のためのマルチタスク学習フレームワークを提案する。
具体的には、大規模なドメイン内チャット翻訳データをトレーニングに組み込むための3段階のトレーニングフレームワークを考案する。
提案手法の有効性と優越性を検証するために, 4言語方向の広範囲な実験を行った。
論文 参考訳(メタデータ) (2022-05-08T02:57:28Z) - IGLUE: A Benchmark for Transfer Learning across Modalities, Tasks, and
Languages [87.5457337866383]
画像認識言語理解評価ベンチマークについて紹介する。
IGLUEは、視覚的質問応答、クロスモーダル検索、グラウンドド推論、20言語にわたるグラウンドドエンターテイメントタスクをまとめて提供する。
翻訳-テストの転送はゼロショットの転送よりも優れており、少数ショットの学習は多くのタスクに役立てることが難しい。
論文 参考訳(メタデータ) (2022-01-27T18:53:22Z) - Sm{\aa}prat: DialoGPT for Natural Language Generation of Swedish
Dialogue by Transfer Learning [1.6111818380407035]
自然言語対話生成のための最先端のモデルは、英語で人間のような単行会話をシミュレートする際、印象的な性能を示した。
この研究は、経験的な研究により、そのようなモデルのスウェーデン語への変換学習の可能性について調査する。
論文 参考訳(メタデータ) (2021-10-12T18:46:43Z) - Improving Cross-Lingual Reading Comprehension with Self-Training [62.73937175625953]
現在の最新モデルは、いくつかのベンチマークで人間のパフォーマンスを上回っています。
前作では、ゼロショットのクロスリンガル読解のための事前訓練された多言語モデルの能力を明らかにしている。
本稿では,ラベルのないデータを利用して性能を向上する。
論文 参考訳(メタデータ) (2021-05-08T08:04:30Z) - Towards the evaluation of simultaneous speech translation from a
communicative perspective [0.0]
本稿では,同時音声翻訳エンジンの品質評価を目的とした実験結果について述べる。
機械が情報性の観点からやや良く機能する一方で、人間の通訳者にとって、知性の観点からはより良いパフォーマンスを見出した。
論文 参考訳(メタデータ) (2021-03-15T13:09:00Z) - Exploring Fine-tuning Techniques for Pre-trained Cross-lingual Models
via Continual Learning [74.25168207651376]
訓練済みの言語モデルから下流の言語間タスクへの微調整は、有望な結果を示している。
ダウンストリームタスクに微調整する場合、継続学習を活用して、事前学習したモデルの言語間能力を維持する。
提案手法は、ゼロショット言語間タグ付けや名前付きエンティティ認識タスクにおいて、他の微調整ベースラインよりも優れた性能を実現する。
論文 参考訳(メタデータ) (2020-04-29T14:07:18Z) - Exploring the Limits of Transfer Learning with a Unified Text-to-Text
Transformer [64.22926988297685]
下流タスクで微調整される前に、まずデータリッチタスクでモデルが事前訓練されるトランスファーラーニングは、自然言語処理(NLP)において強力な手法として登場した。
本稿では,すべてのテキストベースの言語問題をテキスト・トゥ・テキスト・フォーマットに変換する統一フレームワークにより,NLPのためのトランスファー学習手法を導入する状況について検討する。
論文 参考訳(メタデータ) (2019-10-23T17:37:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。