論文の概要: Longitudinal Sentiment Classification of Reddit Posts
- arxiv url: http://arxiv.org/abs/2401.12382v1
- Date: Mon, 22 Jan 2024 22:16:55 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-24 17:32:15.041665
- Title: Longitudinal Sentiment Classification of Reddit Posts
- Title(参考訳): Redditポストの縦型感性分類
- Authors: Fabian Nwaoha, Ziyad Gaffar, Ho Joon Chun, Marina Sokolova
- Abstract要約: 2020-2023年を中心に、この記事のテキストで作業しています。
感情閾値を[-0.075,0.075]の範囲に微調整することで、ポスト感情を肯定的・否定的なカテゴリに分類するのに熟練した分類器を構築できた。
- 参考スコア(独自算出の注目度): 0.24578723416255746
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We report results of a longitudinal sentiment classification of Reddit posts
written by students of four major Canadian universities. We work with the texts
of the posts, concentrating on the years 2020-2023. By finely tuning a
sentiment threshold to a range of [-0.075,0.075], we successfully built
classifiers proficient in categorizing post sentiments into positive and
negative categories. Noticeably, our sentiment classification results are
consistent across the four university data sets.
- Abstract(参考訳): カナダの4大大学の学生によるReddit投稿の縦断的感情分類の結果を報告する。
2020-2023年を中心に、この記事のテキストで作業しています。
感情閾値を [-0.075,0.075] の範囲に微調整することにより,ポスト感情を正と負のカテゴリに分類できる分類器の構築に成功した。
特に、私たちの感情分類結果は4つの大学のデータセットで一致しています。
関連論文リスト
- You Shall Know a Tool by the Traces it Leaves: The Predictability of Sentiment Analysis Tools [74.98850427240464]
感情分析ツールが同じデータセットで一致しないことを示す。
感傷的アノテーションに使用される感情ツールは,その結果から予測できることを示す。
論文 参考訳(メタデータ) (2024-10-18T17:27:38Z) - A Generic NLI approach for Classification of Sentiment Associated with
Therapies [0.559442100941383]
我々は、自然言語推論(NLI)に基づく手法を採用し、このタスクを文対分類問題として定式化する。
我々のベストモデルは75.22%のF1スコアを獲得し、これは全チームの平均(中間)スコアよりも11%(4%)多かった。
論文 参考訳(メタデータ) (2023-11-28T13:27:21Z) - Language Model Classifier Aligns Better with Physician Word Sensitivity
than XGBoost on Readmission Prediction [86.15787587540132]
語彙レベルでモデルの振る舞いを精査する尺度である感度スコアを導入する。
本実験は,感度スコアのランク相関に基づいて,臨床医と分類医の意思決定論理を比較した。
論文 参考訳(メタデータ) (2022-11-13T23:59:11Z) - LeQua@CLEF2022: Learning to Quantify [76.22817970624875]
LeQua 2022は、テキストデータセットで'を定量化する方法を評価するための新しい実験室である。
本研究の目的は、バイナリ設定とシングルラベルのマルチクラス設定の両方において、学習方法の比較評価のための設定を提供することである。
論文 参考訳(メタデータ) (2021-11-22T14:54:20Z) - Classifying YouTube Comments Based on Sentiment and Type of Sentence [0.0]
我々は、よく知られた統計測度と機械学習モデルを用いて、YouTubeコメントからのテキスト抽出と分類の課題に対処する。
その結果,従来の手法を取り入れた手法が,コンテンツ制作者のチャンネルにおける視聴者エンゲージメント向上に有効であることを示す。
論文 参考訳(メタデータ) (2021-10-31T18:08:10Z) - Overview of the TREC 2020 Fair Ranking Track [64.16623297717642]
本稿は、NIST TREC 2020 Fair Ranking trackの概要を示す。
フェア・ランキング・トラックの中心的な目標は、様々な作家グループに公正な露出を提供することである。
論文 参考訳(メタデータ) (2021-08-11T10:22:05Z) - Stay on Topic, Please: Aligning User Comments to the Content of a News
Article [7.3203631241415055]
新たな記事ベースに投稿されたユーザコメントとその内容との整合性を分類する分類アルゴリズムを提案する。
このアライメントは、コンテンツ、議論のエンティティ、トピック間の類似性に基づいて、ユーザーコメントと記事とを一致させようとする。
分類作業の難易度を理解するために,人間のラベル付け性能を評価するためのユーザ調査を行う。
論文 参考訳(メタデータ) (2021-03-03T18:29:00Z) - Hostility Detection Dataset in Hindi [44.221862384125245]
ヒンディー語で8200のオンライン投稿を手作業で収集し、注釈付けします。
データセットは、敵対的なクラス間で大きな重複があるため、マルチラベルタグとして考慮されている。
論文 参考訳(メタデータ) (2020-11-06T20:33:12Z) - Dynamic Semantic Matching and Aggregation Network for Few-shot Intent
Detection [69.2370349274216]
利用可能な注釈付き発話が不足しているため、インテント検出は困難である。
セマンティック成分はマルチヘッド自己認識によって発話から蒸留される。
本手法はラベル付きインスタンスとラベルなしインスタンスの両方の表現を強化するための総合的なマッチング手段を提供する。
論文 参考訳(メタデータ) (2020-10-06T05:16:38Z) - Rank over Class: The Untapped Potential of Ranking in Natural Language
Processing [8.637110868126546]
我々は、現在分類を用いて対処されている多くのタスクが、実際には分類モールドに切り替わっていると論じる。
本稿では,一対のテキストシーケンスの表現を生成するトランスフォーマーネットワークからなる新しいエンドツーエンドランキング手法を提案する。
重く歪んだ感情分析データセットの実験では、ランキング結果を分類ラベルに変換すると、最先端のテキスト分類よりも約22%改善する。
論文 参考訳(メタデータ) (2020-09-10T22:18:57Z) - A Unified Dual-view Model for Review Summarization and Sentiment
Classification with Inconsistency Loss [51.448615489097236]
ユーザーレビューから正確な要約と感情を取得することは、現代のEコマースプラットフォームにとって不可欠な要素である。
本稿では,これら2つのタスクの性能を協調的に改善する新しいデュアルビューモデルを提案する。
異なる領域の4つの実世界のデータセットに対する実験結果から,本モデルの有効性が示された。
論文 参考訳(メタデータ) (2020-06-02T13:34:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。