論文の概要: Reddit is all you need: Authorship profiling for Romanian
- arxiv url: http://arxiv.org/abs/2410.09907v1
- Date: Sun, 13 Oct 2024 16:27:31 GMT
- ステータス: 処理完了
- システム内更新日: 2024-10-30 04:13:22.710236
- Title: Reddit is all you need: Authorship profiling for Romanian
- Title(参考訳): Redditはルーマニア人のための著者プロファイリング
- Authors: Ecaterina Ştefănescu, Alexandru-Iulius Jerpelea,
- Abstract要約: 著者プロファイリング(英: Authorship profiling)とは、著者の著作に基づいて著者の特徴を特定する過程である。
本稿では,ルーマニア語における短いテキストのコーパスについて紹介する。
- 参考スコア(独自算出の注目度): 49.1574468325115
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Authorship profiling is the process of identifying an author's characteristics based on their writings. This centuries old problem has become more intriguing especially with recent developments in Natural Language Processing (NLP). In this paper, we introduce a corpus of short texts in the Romanian language, annotated with certain author characteristic keywords; to our knowledge, the first of its kind. In order to do this, we exploit a social media platform called Reddit. We leverage its thematic community-based structure (subreddits structure), which offers information about the author's background. We infer an user's demographic and some broad personal traits, such as age category, employment status, interests, and social orientation based on the subreddit and other cues. We thus obtain a 23k+ samples corpus, extracted from 100+ Romanian subreddits. We analyse our dataset, and finally, we fine-tune and evaluate Large Language Models (LLMs) to prove baselines capabilities for authorship profiling using the corpus, indicating the need for further research in the field. We publicly release all our resources.
- Abstract(参考訳): 著者プロファイリング(英: Authorship profiling)とは、著者の著作に基づいて著者の特徴を特定する過程である。
特に近年の自然言語処理(NLP)の発展により、この世紀は興味深い問題となっている。
本稿では,ルーマニア語における短いテキストのコーパスについて紹介する。
これを実現するために、Redditというソーシャルメディアプラットフォームを利用しています。
我々は,その主題的コミュニティベース構造(従属構造)を活用し,著者の背景に関する情報を提供する。
年齢分類,就業状況,利害関係,社会的指向など,利用者の人口統計学的特徴と幅広い個人的特性をサブレディットやその他の手がかりに基づいて推定する。
その結果,100以上のルーマニア亜種から抽出した23k以上のサンプルコーパスが得られた。
我々はデータセットを分析し、最後にLarge Language Models(LLM)を微調整して評価し、コーパスを用いた著者プロファイルのベースライン機能を証明する。
すべてのリソースを公開しています。
関連論文リスト
- BookWorm: A Dataset for Character Description and Analysis [59.186325346763184]
本稿では,短い事実プロファイルを生成する文字記述と,詳細な解釈を提供する文字解析という2つのタスクを定義する。
本稿では,Gutenbergプロジェクトからの書籍と,人間による記述と分析のペアリングを行うBookWormデータセットを紹介する。
その結果,検索に基づくアプローチは両タスクにおいて階層的アプローチよりも優れていた。
論文 参考訳(メタデータ) (2024-10-14T10:55:58Z) - Prompt-based Personality Profiling: Reinforcement Learning for Relevance Filtering [8.20929362102942]
著者プロファイルは、共有するコンテンツを分析して個人の特徴を推測するタスクである。
本稿では,関係のないコンテンツと関係のないコンテンツとを区別することを目的とした著者プロファイリング手法を提案し,それに続いて,関連データのみを用いて実際のユーザプロファイリングを行う。
2つのTwitterコーパスにおける5つの人格特性予測手法の評価を行った。
論文 参考訳(メタデータ) (2024-09-06T08:43:10Z) - ILiAD: An Interactive Corpus for Linguistic Annotated Data from Twitter Posts [0.0]
英語のTwitter投稿から言語コーパスの開発と展開について述べる。
主な目標は、言語分析のための完全な注釈付き英語コーパスを作ることであった。
形態や構文に関する情報に加えて,トークン化やレムマ,n-gramなどのNLP機能も含んでいます。
論文 参考訳(メタデータ) (2024-07-22T04:48:04Z) - NusaWrites: Constructing High-Quality Corpora for Underrepresented and
Extremely Low-Resource Languages [54.808217147579036]
インドネシアの地方言語について事例研究を行う。
データセット構築におけるオンラインスクラップ,人文翻訳,および母語話者による段落作成の有効性を比較した。
本研究は,母語話者による段落作成によって生成されたデータセットが,語彙的多様性と文化的内容の点で優れた品質を示すことを示す。
論文 参考訳(メタデータ) (2023-09-19T14:42:33Z) - Constructing Colloquial Dataset for Persian Sentiment Analysis of Social
Microblogs [0.0]
本稿ではまず,ITRC-Opinionというユーザ意見データセットを協調的かつインソース的に構築する。
私たちのデータセットには、TwitterやInstagramといったソーシャルなマイクロブログから、6万の非公式で口語的なペルシア語のテキストが含まれています。
次に,畳み込みニューラルネットワーク(CNN)モデルに基づく新しいアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-06-22T05:51:22Z) - PART: Pre-trained Authorship Representation Transformer [64.78260098263489]
文書を書く著者は、語彙、レジストリ、句読点、ミススペル、絵文字の使用など、テキスト内での識別情報をインプリントする。
以前の作品では、手作りのフィーチャや分類タスクを使用して著者モデルをトレーニングし、ドメイン外の著者に対するパフォーマンスの低下につながった。
セマンティクスの代わりにtextbfauthorship の埋め込みを学習するために、対照的に訓練されたモデルを提案する。
論文 参考訳(メタデータ) (2022-09-30T11:08:39Z) - Urdu Speech and Text Based Sentiment Analyzer [1.4630964945453113]
本研究は,ユーザ評価に基づく新しいマルチクラスUrduデータセットを提案する。
提案したデータセットには1万のレビューが含まれており、人間の専門家によって慎重に2つのカテゴリに分類されている。
Naivebayes、Stanza、Textblob、Vader、Frairを含む5種類のレキシコンおよびルールベースのアルゴリズムが採用され、実験の結果、Flairが70%の精度で他のテストアルゴリズムより優れていることが示された。
論文 参考訳(メタデータ) (2022-07-19T10:11:22Z) - SCROLLS: Standardized CompaRison Over Long Language Sequences [62.574959194373264]
SCROLLSは長いテキストに対する推論を必要とするタスクのスイートである。
SCROLLSには要約、質問応答、自然言語推論タスクが含まれる。
すべてのデータセットを統一されたテキスト・ツー・テキスト形式で利用可能にし、モデルアーキテクチャと事前学習方法の研究を容易にするために、ライブのリーダーボードをホストします。
論文 参考訳(メタデータ) (2022-01-10T18:47:15Z) - How to Train Your Agent to Read and Write [52.24605794920856]
研究論文の読み書きは、資格のある研究者が習得すべき最も特権のある能力の1つである。
読者が論文を読み、要約できるようにインテリジェントなエージェントを訓練し、おそらく新しい論文を書くための潜在的な知識の手がかりを発見し、活用できれば、それは魅力的です。
本研究では,入力段落から知識グラフ(KG)を抽出して潜在的な知識を発見できるtextitReader,新規段落を生成するgraph-to-text TextitWriter,およびtextitから構成されるDeep ReAder-Writer(DRAW)ネットワークを提案する。
論文 参考訳(メタデータ) (2021-01-04T12:22:04Z) - A Framework for Generating Annotated Social Media Corpora with
Demographics, Stance, Civility, and Topicality [0.0]
ソーシャルメディアテキストコーポラを様々なカテゴリにアノテートするためのフレームワークを紹介します。
facebookのコメントコーポラを、性別、軍事関係、年齢グループ、政治的傾倒、人種、スタンス、トピックアリーティ、ネオリベラルな見解、コメントの市民性にアノテートした学生ローン議論のケーススタディを用いています。
論文 参考訳(メタデータ) (2020-12-10T04:06:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。