論文の概要: SINAI at eRisk@CLEF 2025: Transformer-Based and Conversational Strategies for Depression Detection
- arxiv url: http://arxiv.org/abs/2509.19861v1
- Date: Wed, 24 Sep 2025 08:04:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-25 20:53:19.729446
- Title: SINAI at eRisk@CLEF 2025: Transformer-Based and Conversational Strategies for Depression Detection
- Title(参考訳): SINAI at eRisk@CLEF 2025: Transformer-based and Conversational Strategies for depression Detection (英語)
- Authors: Alba Maria Marmol-Romero, Manuel Garcia-Vega, Miguel Angel Garcia-Cumbreras, Arturo Montejo-Raez,
- Abstract要約: 本稿では,eRisk@CLEF 2025ラボにおけるSINAI-UJAチームの参加について述べる。
提案課題は, (i) 文脈適応型早期抑うつ検出, (ii) パイロットタスク: LLMによる会話型抑うつ検出である。
タスク2のアプローチは,RoBERTa BaseやMentalRoBERTA Largeといったトランスフォーマーベースのモデルと,広範な前処理パイプラインを組み合わせたものです。
パイロットタスクでは,限られた数で情報ゲインを最大化することに集中して,LLMを活用したペルソナと対話するための一連の対話戦略を設計した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper describes the participation of the SINAI-UJA team in the eRisk@CLEF 2025 lab. Specifically, we addressed two of the proposed tasks: (i) Task 2: Contextualized Early Detection of Depression, and (ii) Pilot Task: Conversational Depression Detection via LLMs. Our approach for Task 2 combines an extensive preprocessing pipeline with the use of several transformer-based models, such as RoBERTa Base or MentalRoBERTA Large, to capture the contextual and sequential nature of multi-user conversations. For the Pilot Task, we designed a set of conversational strategies to interact with LLM-powered personas, focusing on maximizing information gain within a limited number of dialogue turns. In Task 2, our system ranked 8th out of 12 participating teams based on F1 score. However, a deeper analysis revealed that our models were among the fastest in issuing early predictions, which is a critical factor in real-world deployment scenarios. This highlights the trade-off between early detection and classification accuracy, suggesting potential avenues for optimizing both jointly in future work. In the Pilot Task, we achieved 1st place out of 5 teams, obtaining the best overall performance across all evaluation metrics: DCHR, ADODL and ASHR. Our success in this task demonstrates the effectiveness of structured conversational design when combined with powerful language models, reinforcing the feasibility of deploying LLMs in sensitive mental health assessment contexts.
- Abstract(参考訳): 本稿では,eRisk@CLEF 2025ラボにおけるSINAI-UJAチームの参加について述べる。
具体的には,2つの課題に対処した。
(i)タスク2: 抑うつの早期検出の文脈化、及び
(ii)パイロットタスク:LLMによる会話型抑うつ検出。
タスク2のアプローチは,RoBERTa BaseやMentalRoBERTA Largeといったトランスフォーマーベースモデルと組み合わせて,マルチユーザ会話のコンテキスト的・シーケンシャルな性質を捉える。
パイロットタスクでは,限られた対話回数で情報ゲインを最大化することに集中して,LLMを活用したペルソナと対話するための一連の対話戦略を設計した。
第2タスクでは、F1スコアに基づいて12チーム中8位にランク付けしました。
しかし、より深い分析の結果、私たちのモデルは早期予測の発行において最速のモデルであり、これは実際のデプロイメントシナリオにおいて重要な要素であることがわかった。
これは早期検出と分類精度のトレードオフを強調しており、将来の作業で両者を最適化するための潜在的な道のりを示唆している。
Pilot Taskでは、5チーム中1位を獲得し、DCHR、ADODL、ASHRなど、すべての評価指標で最高の全体的なパフォーマンスを得ました。
この課題における我々の成功は、強力な言語モデルと組み合わせることで、構造化された会話設計の有効性を実証し、敏感なメンタルヘルスアセスメントの文脈にLLMをデプロイする可能性を強化することである。
関連論文リスト
- Strategic Prompting for Conversational Tasks: A Comparative Analysis of Large Language Models Across Diverse Conversational Tasks [23.34710429552906]
Llama, OPT, Falcon, Alpaca, MPTの5大言語モデルの性能と限界を評価する。
この研究は、予約、共感反応生成、メンタルヘルス、法的カウンセリング、説得、交渉など様々な会話的タスクを含む。
論文 参考訳(メタデータ) (2024-11-26T08:21:24Z) - ChatSOP: An SOP-Guided MCTS Planning Framework for Controllable LLM Dialogue Agents [52.7201882529976]
対話エージェントの制御性を高めるため,SOP誘導モンテカルロ木探索(MCTS)計画フレームワークを提案する。
これを実現するために、GPT-4oを用いた半自動ロールプレイシステムを用いて、SOPアノテーション付きマルチシナリオ対話からなるデータセットをキュレートする。
また、SOP予測のための教師付き微調整と思考の連鎖推論を統合する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-07-04T12:23:02Z) - Can Large Language Models Automatically Score Proficiency of Written Essays? [3.993602109661159]
大規模言語モデル(LLMs)は、様々なタスクにおいて異常な能力を示すトランスフォーマーベースのモデルである。
我々は,LLMの強力な言語知識を活かして,エッセイを分析し,効果的に評価する能力をテストする。
論文 参考訳(メタデータ) (2024-03-10T09:39:00Z) - MAgIC: Investigation of Large Language Model Powered Multi-Agent in Cognition, Adaptability, Rationality and Collaboration [98.18244218156492]
大規模言語モデル(LLM)は、非常に高度な自然言語処理を持つ。
アプリケーションがマルチエージェント環境に拡大するにつれて、包括的な評価フレームワークの必要性が生じる。
この研究は、マルチエージェント設定内でLLMを評価するための新しい競合ベースのベンチマークフレームワークを導入している。
論文 参考訳(メタデータ) (2023-11-14T21:46:27Z) - Pushing the Limits of ChatGPT on NLP Tasks [79.17291002710517]
ChatGPTの成功にもかかわらず、ほとんどのNLPタスクのパフォーマンスは教師付きベースラインよりかなり低い。
そこで本研究では,原因を調べた結果,以下の要因が原因であることが判明した。
NLPタスクにおけるChatGPTの限界を押し上げるために,これらの問題に対処する汎用モジュールの集合を提案する。
論文 参考訳(メタデータ) (2023-06-16T09:40:05Z) - Bag of Tricks for Effective Language Model Pretraining and Downstream
Adaptation: A Case Study on GLUE [93.98660272309974]
このレポートでは、ジェネラル言語理解評価のリーダーボードに関するVega v1を簡潔に紹介します。
GLUEは、質問応答、言語受容性、感情分析、テキスト類似性、パラフレーズ検出、自然言語推論を含む9つの自然言語理解タスクのコレクションである。
最適化された事前学習と微調整の戦略により、13億のモデルは4/9タスクに新しい最先端のタスクを設定し、91.3の平均スコアを達成しました。
論文 参考訳(メタデータ) (2023-02-18T09:26:35Z) - JARVIS: A Neuro-Symbolic Commonsense Reasoning Framework for Conversational Embodied Agents [59.091663077007304]
JARVISは,モジュール型,一般化可能,解釈可能な対話型エンボディドエージェントのための,ニューロシンボリック・コモンセンス推論フレームワークである。
我々のフレームワークは、ダイアログヒストリー(EDH)、TfD、Two-Agent Task Completion(TATC)を含む3つのダイアログベースの実施タスクに対して、最先端(SOTA)結果を達成する。
私たちのモデルは、Alexa Prize SimBot Public Benchmark Challengeで第1位です。
論文 参考訳(メタデータ) (2022-08-28T18:30:46Z) - Using contextual sentence analysis models to recognize ESG concepts [8.905370601886112]
本稿では,ラ・ロシェル大学のTrading Central LabsとL3i研究所のFinSim-4評価キャンペーンの2つのサブタスクへの参加について要約する。
第1のサブタスクは「Fortia ESG分類」を新しい辞書エントリで強化することを目的としており、第2のタスクは、ESGに関連する要因に関して文を「持続可能」または「持続不可能」に分類することを目的としている。
論文 参考訳(メタデータ) (2022-07-04T13:33:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。