論文の概要: Task Preferences across Languages on Community Question Answering
Platforms
- arxiv url: http://arxiv.org/abs/2212.09045v1
- Date: Sun, 18 Dec 2022 09:37:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-20 18:25:05.096952
- Title: Task Preferences across Languages on Community Question Answering
Platforms
- Title(参考訳): コミュニティ質問応答プラットフォームにおける言語間のタスク選択
- Authors: Sebastin Santy, Prasanta Bhattacharya, Rishabh Mehrotra
- Abstract要約: 我々は,多言語およびタスク指向の質問応答対からなる大規模時系列データセットに基づいて学習したエンティティ埋め込みモデルを実装した。
この結果から,課題選好の相違や,プラットフォーム上での言語コミュニティ間の人気傾向にかなりの違いがあることが示唆された。
検索は、Q&Aプラットフォームが非英語ユーザーのコンテンツをキュレートしパーソナライズするのに役立ちます。
- 参考スコア(独自算出の注目度): 15.99737805425571
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the steady emergence of community question answering (CQA) platforms
like Quora, StackExchange, and WikiHow, users now have an unprecedented access
to information on various kind of queries and tasks. Moreover, the rapid
proliferation and localization of these platforms spanning geographic and
linguistic boundaries offer a unique opportunity to study the task requirements
and preferences of users in different socio-linguistic groups. In this study,
we implement an entity-embedding model trained on a large longitudinal dataset
of multi-lingual and task-oriented question-answer pairs to uncover and
quantify the (i) prevalence and distribution of various online tasks across
linguistic communities, and (ii) emerging and receding trends in task
popularity over time in these communities. Our results show that there exists
substantial variance in task preference as well as popularity trends across
linguistic communities on the platform. Findings from this study will help Q&A
platforms better curate and personalize content for non-English users, while
also offering valuable insights to businesses looking to target non-English
speaking communities online.
- Abstract(参考訳): Quora、StackExchange、WikiHowといったコミュニティ質問応答(CQA)プラットフォームが着実に出現し、ユーザは様々な種類のクエリやタスクに関する情報に前例のないアクセス権を持つようになった。
さらに、地理的および言語的境界にまたがるこれらのプラットフォームの急速な普及とローカライゼーションは、異なる社会言語的グループにおけるユーザのタスク要求と好みを研究するユニークな機会を提供する。
本研究では,多言語およびタスク指向の質問応答ペアの大規模縦型データセット上で学習したエンティティ埋め込みモデルを実装し,その解明と定量化を行う。
(i)言語コミュニティにおける各種オンラインタスクの頻度と分布
(II)これらのコミュニティにおけるタスク人気の出現傾向と後退傾向
以上の結果から,プラットフォーム上の言語コミュニティ間の人気傾向と同様に,タスクの嗜好にかなりのばらつきがあることが判明した。
この研究から得られた発見は、Q&Aプラットフォームが非英語ユーザーのコンテンツをキュレートしパーソナライズし、オンラインの非英語コミュニティをターゲットとするビジネスに価値ある洞察を提供するのに役立つ。
関連論文リスト
- Quantifying the Dialect Gap and its Correlates Across Languages [69.18461982439031]
この研究は、明らかな相違を明らかにし、マインドフルなデータ収集を通じてそれらに対処する可能性のある経路を特定することによって、方言NLPの分野を強化する基盤となる。
論文 参考訳(メタデータ) (2023-10-23T17:42:01Z) - Fairness in Language Models Beyond English: Gaps and Challenges [11.62418844341466]
本稿では,多言語・非英語の文脈における公平性について調査する。
これは、現在の研究の欠点と、英語向けに設計された手法が直面する困難を強調している。
論文 参考訳(メタデータ) (2023-02-24T11:25:50Z) - Cross-lingual Lifelong Learning [53.06904052325966]
本稿では,言語間連続学習(CCL)の評価パラダイムを提案する。
マルチリンガルなシーケンシャルな学習を特に難しいものにするための洞察を提供する。
この分析の意味は、異なる言語間連続学習のデシダータを測り、バランスをとる方法のレシピを含む。
論文 参考訳(メタデータ) (2022-05-23T09:25:43Z) - Overcoming Language Disparity in Online Content Classification with
Multimodal Learning [22.73281502531998]
大規模言語モデルは、テキスト検出と分類タスクのための最先端のソリューションを開発するための標準となっている。
高度な計算技術と資源の開発は、英語に不相応に焦点が当てられている。
マルチモーダル機械学習を用いて画像に含まれる情報を統合するという約束を探求する。
論文 参考訳(メタデータ) (2022-05-19T17:56:02Z) - Towards Best Practices for Training Multilingual Dense Retrieval Models [54.91016739123398]
我々は,このような設計を用いて,多種多様言語における単言語検索の課題に焦点をあてる。
本研究は多言語高密度検索モデルのトレーニングのための「ベストプラクティス」ガイドとして組織されている。
論文 参考訳(メタデータ) (2022-04-05T17:12:53Z) - Delving Deeper into Cross-lingual Visual Question Answering [115.16614806717341]
標準学習装置に簡単な修正を加えることで、モノリンガル英語のパフォーマンスへの移行ギャップを大幅に減らすことができることを示す。
多言語マルチモーダル変換器の多言語間VQAを多言語間VQAで解析する。
論文 参考訳(メタデータ) (2022-02-15T18:22:18Z) - Transfer Learning for Multi-lingual Tasks -- a Survey [11.596820548674266]
自然言語処理(NLP)におけるクロス言語の内容と多言語主義はホットトピックである。
本稿では,多言語タスクにおける伝達学習技術に着目し,既存の文献の概要を概観する。
論文 参考訳(メタデータ) (2021-08-28T20:29:43Z) - Specializing Multilingual Language Models: An Empirical Study [50.7526245872855]
事前訓練された多言語モデルからの文脈化語表現は、自然言語タスクに対処するデファクトスタンダードとなっている。
これらのモデルではまれに、あるいは一度も見られない言語では、そのようなモデルを直接使用すると、最適な表現やデータの使用につながることが多い。
論文 参考訳(メタデータ) (2021-06-16T18:13:55Z) - XTREME: A Massively Multilingual Multi-task Benchmark for Evaluating
Cross-lingual Generalization [128.37244072182506]
言語間TRansfer Evaluation of Multilinguals XTREMEは、40言語および9タスクにわたる多言語表現の言語間一般化能力を評価するためのベンチマークである。
我々は、英語でテストされたモデルは、多くのタスクにおいて人間のパフォーマンスに達するが、言語間変換されたモデルの性能にはまだ大きなギャップがあることを示した。
論文 参考訳(メタデータ) (2020-03-24T19:09:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。