論文の概要: SINAI at eRisk@CLEF 2023: Approaching Early Detection of Gambling with Natural Language Processing
- arxiv url: http://arxiv.org/abs/2509.14797v1
- Date: Thu, 18 Sep 2025 09:50:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-19 17:26:53.15568
- Title: SINAI at eRisk@CLEF 2023: Approaching Early Detection of Gambling with Natural Language Processing
- Title(参考訳): eRisk@CLEF 2023でのSINAI:自然言語処理によるギャンブル早期検出へのアプローチ
- Authors: Alba Maria Marmol-Romero, Flor Miriam Plaza-del-Arco, Arturo Montejo-Raez,
- Abstract要約: 本稿では,eRisk@CLEFラボにおけるSINAIチームの参加について述べる。
提案課題の1つは,病的なギャンブルの兆候を早期に検出するタスク2である。
Task 2で提示されるアプローチは、Transformersアーキテクチャからトレーニング済みのモデルに基づいており、包括的な事前処理データとデータバランシング技術がある。
- 参考スコア(独自算出の注目度): 3.987649624343527
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper describes the participation of the SINAI team in the eRisk@CLEF lab. Specifically, one of the proposed tasks has been addressed: Task 2 on the early detection of signs of pathological gambling. The approach presented in Task 2 is based on pre-trained models from Transformers architecture with comprehensive preprocessing data and data balancing techniques. Moreover, we integrate Long-short Term Memory (LSTM) architecture with automodels from Transformers. In this Task, our team has been ranked in seventh position, with an F1 score of 0.126, out of 49 participant submissions and achieves the highest values in recall metrics and metrics related to early detection.
- Abstract(参考訳): 本稿では,eRisk@CLEFラボにおけるSINAIチームの参加について述べる。
具体的には,病的なギャンブルの兆候を早期に検出するタスク2が提案されている。
Task 2で提示されるアプローチは、Transformersアーキテクチャからトレーニング済みのモデルに基づいており、包括的な事前処理データとデータバランシング技術がある。
さらに,Long-Short Term Memory (LSTM)アーキテクチャとTransformerのオートモデルを統合する。
このタスクでは、49名の応募者のうち、F1スコアが0.126で7位にランクインし、早期発見に関連する指標や指標のリコールにおいて最高値を達成しています。
関連論文リスト
- SINAI at eRisk@CLEF 2022: Approaching Early Detection of Gambling and Eating Disorders with Natural Language Processing [3.303345937552717]
本稿では,eRisk@CLEFラボにおけるSINAIチームの参加について述べる。
Task 1で提示されるアプローチは、Transformerからの文の埋め込みの使用に基づいている。
タスク3のアプローチは、トランスフォーマーからの文脈的単語埋め込みを用いたテキスト類似度推定に基づいている。
論文 参考訳(メタデータ) (2025-09-18T10:03:31Z) - DeTra: A Unified Model for Object Detection and Trajectory Forecasting [68.85128937305697]
提案手法は,2つのタスクの結合を軌道修正問題として定式化する。
この統合タスクに対処するために、オブジェクトの存在, ポーズ, マルチモーダルな将来の振る舞いを推測する精細化変換器を設計する。
実験では、我々のモデルはArgoverse 2 Sensor and Openデータセットの最先端性よりも優れています。
論文 参考訳(メタデータ) (2024-06-06T18:12:04Z) - Mavericks at ArAIEval Shared Task: Towards a Safer Digital Space --
Transformer Ensemble Models Tackling Deception and Persuasion [0.0]
本稿では,各課題のタスク1-Aとタスク2-Aのアプローチについて述べる。
タスクは、与えられたバイナリ分類問題に対して、ツイートとニュース記事のマルチジャンルスニペットを使用する。
タスク1-A(8位)では0.742、タスク2-A(7位)では0.901のマイクロF1スコアを達成した。
論文 参考訳(メタデータ) (2023-11-30T17:26:57Z) - Domain Adaptive Synapse Detection with Weak Point Annotations [63.97144211520869]
弱点アノテーションを用いたドメイン適応型シナプス検出のためのフレームワークであるAdaSynを提案する。
I SBI 2023のWASPSYNチャレンジでは、我々の手法が第1位にランクインした。
論文 参考訳(メタデータ) (2023-08-31T05:05:53Z) - IUST_NLP at SemEval-2023 Task 10: Explainable Detecting Sexism with
Transformers and Task-adaptive Pretraining [0.0]
本稿ではSemEval-2023 Task 10: Explainable Detection of Online Sexism (EDOS)について述べる。
本稿では,タスク適応型事前学習とアンサンブル学習を用いたトランスフォーマーに基づく事前学習モデルを提案する。
テストデータセットでは,サブタスクA,B,CのF1スコアが83%,64%,47%であった。
論文 参考訳(メタデータ) (2023-05-11T15:29:04Z) - Self-Supervised Representation Learning from Temporal Ordering of
Automated Driving Sequences [49.91741677556553]
本研究では、認識タスクのための地域レベルの特徴表現を事前学習するための時間順述前文タスクであるTempOを提案する。
我々は各フレームを、オブジェクト検出やトラッキングシステムにとって自然な表現である、未順序な特徴ベクトルのセットで埋め込む。
BDD100K、nu Images、MOT17データセットの大規模な評価は、私たちのTempO事前学習アプローチがシングルフレームの自己教師型学習方法よりも優れていることを示している。
論文 参考訳(メタデータ) (2023-02-17T18:18:27Z) - RoBLEURT Submission for the WMT2021 Metrics Task [72.26898579202076]
本稿では,共有メトリクスタスクであるRoBLEURTについて紹介する。
我々のモデルは10対の英語言語対のうち8対でWMT 2020の人間のアノテーションと最先端の相関に達する。
論文 参考訳(メタデータ) (2022-04-28T08:49:40Z) - Data Processing Matters: SRPH-Konvergen AI's Machine Translation System
for WMT'21 [0.0]
We describe the submit of the joint Samsung Research Philippines-Konvergen AI team for the WMT'21 Large Scale Multilingual Translation Task - Small Track 2。
我々は、共有タスクに標準のSeq2Seq Transformerモデルを提出し、主にパフォーマンス向上のためのデータ前処理技術の強みに依存します。
私たちのモデルはインドネシアで最初にJavaneseにランク付けし、エッジモデルアーキテクチャやトレーニングテクニックよりもデータの事前処理が重要であることを示しています。
論文 参考訳(メタデータ) (2021-11-20T03:56:37Z) - Phonemer at WNUT-2020 Task 2: Sequence Classification Using COVID
Twitter BERT and Bagging Ensemble Technique based on Plurality Voting [0.0]
新型コロナウイルス(COVID-19)に関連する英語のつぶやきを自動的に識別するシステムを開発した。
最終アプローチでは0.9037のF1スコアを達成し,F1スコアを評価基準として総合6位にランク付けした。
論文 参考訳(メタデータ) (2020-10-01T10:54:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。