論文の概要: DS@GT eRisk 2024: Sentence Transformers for Social Media Risk Assessment
- arxiv url: http://arxiv.org/abs/2407.08008v1
- Date: Wed, 10 Jul 2024 19:30:16 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-12 21:39:04.188232
- Title: DS@GT eRisk 2024: Sentence Transformers for Social Media Risk Assessment
- Title(参考訳): DS@GT eRisk 2024: ソーシャルメディアリスクアセスメントのための文変換器
- Authors: David Guecha, Aaryan Potdar, Anthony Miyaguchi,
- Abstract要約: DS@GTチームの作業ノートをeRisk 2024 for Tasks 1 and 3で紹介する。
本稿では,抑うつの症状を予測する第1タスクのランキングシステムを提案する。
タスク3では、BERTからの埋め込みを用いて、ユーザの投稿履歴に基づいて障害症状の重症度を予測する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present working notes for DS@GT team in the eRisk 2024 for Tasks 1 and 3. We propose a ranking system for Task 1 that predicts symptoms of depression based on the Beck Depression Inventory (BDI-II) questionnaire using binary classifiers trained on question relevancy as a proxy for ranking. We find that binary classifiers are not well calibrated for ranking, and perform poorly during evaluation. For Task 3, we use embeddings from BERT to predict the severity of eating disorder symptoms based on user post history. We find that classical machine learning models perform well on the task, and end up competitive with the baseline models. Representation of text data is crucial in both tasks, and we find that sentence transformers are a powerful tool for downstream modeling. Source code and models are available at \url{https://github.com/dsgt-kaggle-clef/erisk-2024}.
- Abstract(参考訳): DS@GTチームの作業ノートをeRisk 2024 for Tasks 1 and 3で紹介する。
本稿では,Bedck Depression Inventory (BDI-II) アンケートに基づいて抑うつ症状を予測するタスク1のランキングシステムを提案する。
その結果、二項分類器はランク付けに適せず、評価中は性能が良くないことがわかった。
タスク3では、BERTからの埋め込みを用いて、ユーザの投稿履歴に基づいて障害症状の重症度を予測する。
従来の機械学習モデルはタスクでうまく機能し、ベースラインモデルと競合することになる。
テキストデータの表現は両タスクにおいて不可欠であり,文変換器は下流モデリングの強力なツールである。
ソースコードとモデルは \url{https://github.com/dsgt-kaggle-clef/erisk-2024} で公開されている。
関連論文リスト
- ThangDLU at #SMM4H 2024: Encoder-decoder models for classifying text data on social disorders in children and adolescents [49.00494558898933]
本稿では,#SMM4H (Social Media Mining for Health) 2024 Workshopのタスク3とタスク5への参加について述べる。
タスク3は、屋外環境が社会不安の症状に与える影響を議論するツイートを中心にした多クラス分類タスクである。
タスク5は、子供の医学的障害を報告しているツイートに焦点を当てたバイナリ分類タスクを含む。
BART-baseやT5-smallのような事前訓練されたエンコーダデコーダモデルからの転送学習を適用し、与えられたツイートの集合のラベルを同定した。
論文 参考訳(メタデータ) (2024-04-30T17:06:20Z) - A Framework for Identifying Depression on Social Media:
MentalRiskES@IberLEF 2023 [0.979963710164115]
本稿では,IberLEF 2023におけるMentalRiskESタスクへの参加について述べる。
この課題は、ソーシャルメディアの活動に基づいてうつ病を経験する個人の可能性を予測することであった。
データセットは175人のTelegramユーザーによる会話で構成されており、それぞれが障害に苦しむ証拠に基づいてラベル付けされている。
論文 参考訳(メタデータ) (2023-06-28T11:53:07Z) - Change is Hard: A Closer Look at Subpopulation Shift [48.0369745740936]
本稿では,部分群における共通シフトを識別し,説明する統一的なフレームワークを提案する。
次に、ビジョン、言語、医療領域の12の現実世界のデータセットで評価された20の最先端アルゴリズムのベンチマークを作成します。
論文 参考訳(メタデータ) (2023-02-23T18:59:56Z) - TEDB System Description to a Shared Task on Euphemism Detection 2022 [0.0]
テキスト分類の最先端手法であるトランスフォーマーモデルについて検討した。
0.816 F1スコアの最良の結果は,特徴抽出器としてのエウヘミズム検出/TimeLMs予測RoBERTaモデルである。
論文 参考訳(メタデータ) (2023-01-16T20:37:56Z) - An End-to-End Set Transformer for User-Level Classification of
Depression and Gambling Disorder [24.776445591293186]
本研究は,ギャンブル中毒とうつ病のユーザレベル分類のためのトランスフォーマーアーキテクチャを提案する。
我々は、特定の個人からソーシャルメディア投稿の集合を処理し、投稿間の相互作用を利用し、ポストレベルでラベルノイズを除去する。
我々のアーキテクチャは、現代の特徴属性法と解釈可能であり、自動データセット作成を可能にします。
論文 参考訳(メタデータ) (2022-07-02T06:40:56Z) - DapStep: Deep Assignee Prediction for Stack Trace Error rePresentation [61.99379022383108]
本稿では,バグトリアージ問題を解決するための新しいディープラーニングモデルを提案する。
モデルは、注目された双方向のリカレントニューラルネットワークと畳み込みニューラルネットワークに基づいている。
ランキングの質を向上させるために,バージョン管理システムのアノテーションから追加情報を利用することを提案する。
論文 参考訳(メタデータ) (2022-01-14T00:16:57Z) - Prototypical Classifier for Robust Class-Imbalanced Learning [64.96088324684683]
埋め込みネットワークに付加的なパラメータを必要としないtextitPrototypealを提案する。
プロトタイプは、訓練セットがクラス不均衡であるにもかかわらず、すべてのクラスに対してバランスと同等の予測を生成する。
我々は, CIFAR-10LT, CIFAR-100LT, Webvision のデータセットを用いて, プロトタイプが芸術の状況と比較した場合, サブスタンスの改善が得られることを検証した。
論文 参考訳(メタデータ) (2021-10-22T01:55:01Z) - Goldilocks: Just-Right Tuning of BERT for Technology-Assisted Review [14.689883695115519]
technology-assisted review (tar) は、ハイリコール検索タスクにおける文書レビューのための反復的なアクティブラーニングである。
教師付きチューニングを備えたトランスフォーマーベースモデルは,多くのテキスト分類タスクにおいて有効性を向上させることが確認された。
アクティブな学習を始める前にタスクコレクションを微調整する正当性言語モデルが重要であることを示す。
論文 参考訳(メタデータ) (2021-05-03T17:41:18Z) - Pre-training Is (Almost) All You Need: An Application to Commonsense
Reasoning [61.32992639292889]
事前学習されたトランスモデルの微調整は、一般的なNLPタスクを解決するための標準的なアプローチとなっている。
そこで本研究では,可視性ランキングタスクをフルテキスト形式でキャストする新たなスコアリング手法を提案する。
提案手法は, ランダム再起動にまたがって, より安定した学習段階を提供することを示す。
論文 参考訳(メタデータ) (2020-04-29T10:54:40Z) - Gradient-Based Adversarial Training on Transformer Networks for
Detecting Check-Worthy Factual Claims [3.7543966923106438]
本稿では,最初の逆正則変換型クレームスポッタモデルを提案する。
現在の最先端モデルよりもF1スコアが4.70ポイント向上した。
本稿では,変換器モデルに逆学習を適用する手法を提案する。
論文 参考訳(メタデータ) (2020-02-18T16:51:05Z) - Pre-training Tasks for Embedding-based Large-scale Retrieval [68.01167604281578]
本稿では,大規模クエリ文書検索問題について考察する。
クエリ(例えば質問)が与えられたら、関連するドキュメントのセットを大きなドキュメントコーパスから返します。
本稿では, 組込み型トランスフォーマーモデルの学習の鍵となる要素が, 事前学習作業のセットであることを示す。
論文 参考訳(メタデータ) (2020-02-10T16:44:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。