論文の概要: Benchmarking Automatic Detection of Psycholinguistic Characteristics for
Better Human-Computer Interaction
- arxiv url: http://arxiv.org/abs/2012.09692v4
- Date: Wed, 13 Jan 2021 10:06:15 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-02 07:30:14.243979
- Title: Benchmarking Automatic Detection of Psycholinguistic Characteristics for
Better Human-Computer Interaction
- Title(参考訳): ヒューマン・コンピュータインタラクション改善のための心理言語特性のベンチマーク自動検出
- Authors: Sanja \v{S}tajner, Seren Yenikent and Marc Franco-Salvador
- Abstract要約: 人間とコンピュータの相互作用を改善するための5つの心理言語的テキスト特性からなるフレームワークを提案する。
英語、スペイン語、ドイツ語、中国語、アラビア語で実験を行います。
提案したフレームワークは,手作業による注釈付きデータが少ない場合でも,様々な言語でモデル化が比較的容易であることが判明した。
- 参考スコア(独自算出の注目度): 1.246150324257064
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: When two people pay attention to each other and are interested in what the
other has to say or write, they almost instantly adapt their writing/speaking
style to match the other. For a successful interaction with a user, chatbots
and dialogue systems should be able to do the same. We propose a framework
consisting of five psycholinguistic textual characteristics for better
human-computer interaction. We describe the annotation processes used for
collecting the data, and benchmark five binary classification tasks,
experimenting with different training sizes and model architectures. We perform
experiments in English, Spanish, German, Chinese, and Arabic. The best
architectures noticeably outperform several baselines and achieve
macro-averaged F1-scores between 72% and 96% depending on the language and the
task. Similar results are achieved even with a small amount of training data.
The proposed framework proved to be fairly easy to model for various languages
even with small amount of manually annotated data if right architectures are
used. At the same time, it showed potential for improving user satisfaction if
applied in existing commercial chatbots.
- Abstract(参考訳): 2人がお互いに注意を払って、相手が言うべきことや書くことに興味がある場合、互いに一致するように書き書き書きスタイルにほぼ即座に適応します。
ユーザとの対話を成功させるためには、チャットボットと対話システムも同じように行う必要がある。
本稿では,人間とコンピュータの相互作用を改善するための5つの心理言語学的テキスト特徴からなる枠組みを提案する。
データ収集に使用されるアノテーションプロセスを説明し,5つのバイナリ分類タスクをベンチマークし,異なるトレーニングサイズとモデルアーキテクチャを実験する。
英語、スペイン語、ドイツ語、中国語、アラビア語で実験を行います。
最高のアーキテクチャはいくつかのベースラインを著しく上回り、言語とタスクによって72%から96%のマクロ平均F1スコアを達成する。
トレーニングデータが少ない場合でも、同様の結果が得られる。
提案するフレームワークは,適切なアーキテクチャを使用すれば,手動でアノテートしたデータが少ない場合でも,さまざまな言語でモデル化が比較的容易であることが証明された。
同時に、既存のチャットボットに適用すれば、ユーザー満足度を向上させる可能性を示した。
関連論文リスト
- Video-Language Critic: Transferable Reward Functions for Language-Conditioned Robotics [25.2461925479135]
Video-Language Criticは、簡単に利用可能なクロスボディデータに基づいてトレーニングできる報酬モデルである。
我々のモデルは、スパース報酬のみよりもメタワールドタスクにおける2倍のサンプル効率のポリシートレーニングを可能にします。
論文 参考訳(メタデータ) (2024-05-30T12:18:06Z) - Constructing Colloquial Dataset for Persian Sentiment Analysis of Social
Microblogs [0.0]
本稿ではまず,ITRC-Opinionというユーザ意見データセットを協調的かつインソース的に構築する。
私たちのデータセットには、TwitterやInstagramといったソーシャルなマイクロブログから、6万の非公式で口語的なペルシア語のテキストが含まれています。
次に,畳み込みニューラルネットワーク(CNN)モデルに基づく新しいアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-06-22T05:51:22Z) - SEAHORSE: A Multilingual, Multifaceted Dataset for Summarization
Evaluation [52.186343500576214]
本稿では,多言語・多面的要約評価のためのデータセットSEAHORSEを紹介する。
SEAHORSEは、テキスト品質の6次元に沿って人間格付けされた96Kの要約で構成されている。
本稿では,SEAHORSEでトレーニングしたメトリクスが,ドメイン外メタ評価ベンチマークTRUEとmFACEで高い性能を示すことを示す。
論文 参考訳(メタデータ) (2023-05-22T16:25:07Z) - A Commonsense-Infused Language-Agnostic Learning Framework for Enhancing
Prediction of Political Polarity in Multilingual News Headlines [0.0]
対象言語における推論知識を取得するために,翻訳と検索の手法を用いる。
次に、重要な推論を強調するために注意機構を使用します。
我々は、それぞれの政治的極性に注釈を付けた5つのヨーロッパ言語で62.6K以上の多言語ニュースの見出しを提示する。
論文 参考訳(メタデータ) (2022-12-01T06:07:01Z) - Relational Embeddings for Language Independent Stance Detection [4.492444446637856]
本稿では,リレーショナル埋め込みを生成することで,友人やリツイートなどのソーシャル情報を活用する新しい手法を提案する。
我々の手法は手動のチューニングなしに任意の言語やターゲットに適用できる。
論文 参考訳(メタデータ) (2022-10-11T18:13:43Z) - RuMedBench: A Russian Medical Language Understanding Benchmark [58.99199480170909]
本稿では,複数のタスクタイプをカバーするオープンなロシア語医療言語理解ベンチマークについて述べる。
我々は、新しいタスクのための統一されたフォーマットラベリング、データ分割、評価メトリクスを作成します。
シングルナンバーメトリックは、ベンチマークに対処するモデルの能力を表す。
論文 参考訳(メタデータ) (2022-01-17T16:23:33Z) - Rethinking End-to-End Evaluation of Decomposable Tasks: A Case Study on
Spoken Language Understanding [101.24748444126982]
分解可能なタスクは複雑で、サブタスクの階層から構成される。
しかし、既存のベンチマークでは、通常は表面レベルのサブタスクのみの例が示される。
サブタスク固有のユーティリティ関数上の座標アセントを用いて、ロバストなテストセットを構築するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2021-06-29T02:53:59Z) - Paraphrastic Representations at Scale [134.41025103489224]
私たちは、英語、アラビア語、ドイツ語、フランス語、スペイン語、ロシア語、トルコ語、中国語の訓練されたモデルをリリースします。
我々はこれらのモデルを大量のデータでトレーニングし、元の論文から大幅に性能を向上した。
論文 参考訳(メタデータ) (2021-04-30T16:55:28Z) - Comparison of Interactive Knowledge Base Spelling Correction Models for
Low-Resource Languages [81.90356787324481]
低リソース言語に対する正規化の推進は、パターンの予測が難しいため、難しい作業である。
この研究は、ターゲット言語データに様々な量を持つニューラルモデルとキャラクタ言語モデルの比較を示す。
我々の利用シナリオは、ほぼゼロのトレーニング例によるインタラクティブな修正であり、より多くのデータが収集されるにつれてモデルを改善する。
論文 参考訳(メタデータ) (2020-10-20T17:31:07Z) - XPersona: Evaluating Multilingual Personalized Chatbot [76.00426517401894]
我々はペルソナ・チャットの多言語拡張(XPersona)を提案する。
我々のデータセットには、多言語パーソナライズされたエージェントの構築と評価のための英語以外の6言語でのペルソナ会話が含まれています。
論文 参考訳(メタデータ) (2020-03-17T07:52:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。