論文の概要: Question Identification in Arabic Language Using Emotional Based
Features
- arxiv url: http://arxiv.org/abs/2008.03843v1
- Date: Mon, 10 Aug 2020 00:18:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-31 22:20:40.495007
- Title: Question Identification in Arabic Language Using Emotional Based
Features
- Title(参考訳): 感情に基づく特徴量を用いたアラビア語の質問識別
- Authors: Ahmed Ramzy and Ahmed Elazab
- Abstract要約: 我々は、アラビア語のテキストを問合せの問合せに分類するバイナリ分類器を実装した。
アート機能の現状に感情に基づく機能を追加しました。
- 参考スコア(独自算出の注目度): 1.648023189023157
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the growth of content on social media networks, enterprises and services
providers have become interested in identifying the questions of their
customers. Tracking these questions become very challenging with the growth of
text that grows directly proportional to the increase of Arabic users thus
making it very difficult to be tracked manually. By automatic identifying the
questions seeking answers on the social media networks and defining their
category, we can automatically answer them by finding an existing answer or
even routing them to those responsible for answering those questions in the
customer service. This will result in saving the time and the effort and
enhancing the customer feedback and improving the business. In this paper, we
have implemented a binary classifier to classify Arabic text to either question
seeking answer or not. We have added emotional based features to the state of
the art features. Experimental evaluation has done and showed that these
emotional features have improved the accuracy of the classifier.
- Abstract(参考訳): ソーシャルメディアネットワーク上のコンテンツの増加に伴い、企業やサービスプロバイダは顧客からの質問を識別することに興味を持つようになった。
これらの質問を追跡することは、アラビア語利用者の増加に直接比例するテキストの成長によって非常に困難になるため、手動で追跡することが非常に困難になる。
ソーシャルメディア上で回答を求める質問を自動的に識別し、カテゴリを定義することで、既存の回答を見つけるか、カスタマーサービスの質問に回答する担当者にルーティングすることで、自動的に答えることができます。
これにより、時間と労力を節約し、顧客のフィードバックを高め、ビジネスを改善することができます。
本稿では、アラビア語のテキストを質問に答えるか否かを分類するバイナリ分類器を実装した。
アート機能の現状に感情に基づく機能を追加しました。
実験の結果,これらの感情的特徴により分類精度が向上したことがわかった。
関連論文リスト
- Is Our Chatbot Telling Lies? Assessing Correctness of an LLM-based Dutch Support Chatbot [2.048226951354646]
この研究は、AFASのサポートチームがどのように意思決定するかに基づいて、レスポンスの正しさを定義する最初のものです。
自動的なアプローチが支持率にどの程度近づいたかを調べるためには、バイナリレスポンス(例えば、手動で税率を調整することは可能か?)や指示(例えば、手動で税率を調整するか?)を問う質問を調査した。
われわれのアプローチでは、55%のケースで間違ったメッセージを識別できる。
論文 参考訳(メタデータ) (2024-10-29T12:02:14Z) - OMoS-QA: A Dataset for Cross-Lingual Extractive Question Answering in a German Migration Context [4.39796591456426]
OMoS-QAは、信頼できる文書と手動の注釈付き回答とを組み合わせた、ドイツ語と英語の質問のデータセットである。
質問はオープンソースの大言語モデル(LLM)で自動的に生成され、回答文は群衆労働者によって選択される。
回答文の選択には高精度で低中間のリコールがあり、これは誤解を招くユーザーを避けるための好都合なトレードオフである。
論文 参考訳(メタデータ) (2024-07-22T15:40:17Z) - How to Engage Your Readers? Generating Guiding Questions to Promote Active Reading [60.19226384241482]
教科書や科学論文から10Kのインテキスト質問のデータセットであるGuidingQを紹介した。
言語モデルを用いてこのような質問を生成するための様々なアプローチを探索する。
我々は、そのような質問が読解に与える影響を理解するために、人間の研究を行う。
論文 参考訳(メタデータ) (2024-07-19T13:42:56Z) - CaLMQA: Exploring culturally specific long-form question answering across 23 languages [58.18984409715615]
CaLMQAは、23の言語にまたがる1.5Kの文化的に特定の質問のコレクションであり、51の文化的に翻訳された質問は、英語から22の言語に翻訳されている。
コミュニティのWebフォーラムから自然に発生する質問を収集し、ネイティブスピーカーを雇い、FijianやKirndiといった未調査言語をカバーする質問を書いています。
私たちのデータセットには、文化的トピック(伝統、法律、ニュースなど)とネイティブスピーカーの言語使用を反映した、多種多様な複雑な質問が含まれています。
論文 参考訳(メタデータ) (2024-06-25T17:45:26Z) - CLARINET: Augmenting Language Models to Ask Clarification Questions for Retrieval [52.134133938779776]
CLARINETは,回答が正しい候補の確実性を最大化する質問を選択することで,情報的明確化を問うシステムである。
提案手法は,大規模言語モデル(LLM)を検索分布の条件付きで拡張し,各ターンで真の候補のランクを最大化する問題を生成する。
論文 参考訳(メタデータ) (2024-04-28T18:21:31Z) - Towards Self-Contained Answers: Entity-Based Answer Rewriting in
Conversational Search [19.147174273221452]
本稿では,利用者が外部サービスや情報源を使わずに理解できるように,CISで回答を書き換える方法について検討する。
最初のコントリビューションとして、正当性のためのエンティティに注釈付けされた会話のデータセットを作成しました。
第2のコントリビューションとして,CIS全体のユーザエクスペリエンス向上を目的とした2つの回答書き直し戦略を提案する。
論文 参考訳(メタデータ) (2024-03-04T05:52:41Z) - SkillQG: Learning to Generate Question for Reading Comprehension
Assessment [54.48031346496593]
本稿では,機械読解モデルの評価と改善を目的とした,制御可能な理解型を用いた質問生成フレームワークを提案する。
まず、階層的なスキルベースのスキーマに基づいて理解型の質問をフレーム化し、その後、スキル条件付き質問生成器として$textttSkillQG$を定式化する。
経験的な結果から、$textttSkillQG$は、品質、妥当性、スキル制御性という点でベースラインを上回ります。
論文 参考訳(メタデータ) (2023-05-08T14:40:48Z) - Visual Question Rewriting for Increasing Response Rate [12.700769102964088]
人からの回答率を改善するために、自然言語の質問を自動的に書き換える方法について検討する。
視覚的情報を用いて新しい質問を改善するために,視覚的質問書き換え(VQR)タスクが導入された。
論文 参考訳(メタデータ) (2021-06-04T04:46:47Z) - GooAQ: Open Question Answering with Diverse Answer Types [63.06454855313667]
さまざまな回答型を持つ大規模データセットであるGooAQを紹介する。
このデータセットには500万の質問と300万の回答が含まれている。
論文 参考訳(メタデータ) (2021-04-18T05:40:39Z) - Inquisitive Question Generation for High Level Text Comprehension [60.21497846332531]
InQUISITIVEは、文書を読みながら19K質問を抽出するデータセットである。
我々は,読者が情報を求めるための実践的な戦略に携わることを示す。
我々は, GPT-2に基づく質問生成モデルを評価し, 妥当な質問を生成することができることを示す。
論文 参考訳(メタデータ) (2020-10-04T19:03:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。