論文の概要: Harnessing Large Language Models Over Transformer Models for Detecting
Bengali Depressive Social Media Text: A Comprehensive Study
- arxiv url: http://arxiv.org/abs/2401.07310v1
- Date: Sun, 14 Jan 2024 15:15:58 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-17 18:58:57.047459
- Title: Harnessing Large Language Models Over Transformer Models for Detecting
Bengali Depressive Social Media Text: A Comprehensive Study
- Title(参考訳): ベンガル語抑うつ的ソーシャルメディアテキスト検出のためのトランスフォーマーモデルによる大規模言語モデルの調和 : 総合的研究
- Authors: Ahmadul Karim Chowdhury, Md. Saidur Rahman Sujon, Md. Shirajus Salekin
Shafi, Tasin Ahmmad, Sifat Ahmed, Khan Md Hasib, Faisal Muhammad Shah
- Abstract要約: 本研究は, GPT 3.5, GPT 4 および提案した GPT 3.5 微調整モデル DepGPT を用いた抑うつの早期検出に焦点を当てた。
この研究はRedditとXのデータセットを「抑うつ」と「非抑うつ」のセグメントに分類し、ベンガル語に翻訳した。
我々の研究は、各モデルに対する完全なアーキテクチャの詳細と、ベンガルの抑うつ的テキスト分類におけるそれらのパフォーマンスを評価するための方法論的な方法を提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In an era where the silent struggle of underdiagnosed depression pervades
globally, our research delves into the crucial link between mental health and
social media. This work focuses on early detection of depression, particularly
in extroverted social media users, using LLMs such as GPT 3.5, GPT 4 and our
proposed GPT 3.5 fine-tuned model DepGPT, as well as advanced Deep learning
models(LSTM, Bi-LSTM, GRU, BiGRU) and Transformer models(BERT, BanglaBERT,
SahajBERT, BanglaBERT-Base). The study categorized Reddit and X datasets into
"Depressive" and "Non-Depressive" segments, translated into Bengali by native
speakers with expertise in mental health, resulting in the creation of the
Bengali Social Media Depressive Dataset (BSMDD). Our work provides full
architecture details for each model and a methodical way to assess their
performance in Bengali depressive text categorization using zero-shot and
few-shot learning techniques. Our work demonstrates the superiority of
SahajBERT and Bi-LSTM with FastText embeddings in their respective domains also
tackles explainability issues with transformer models and emphasizes the
effectiveness of LLMs, especially DepGPT, demonstrating flexibility and
competence in a range of learning contexts. According to the experiment
results, the proposed model, DepGPT, outperformed not only Alpaca Lora 7B in
zero-shot and few-shot scenarios but also every other model, achieving a
near-perfect accuracy of 0.9796 and an F1-score of 0.9804, high recall, and
exceptional precision. Although competitive, GPT-3.5 Turbo and Alpaca Lora 7B
show relatively poorer effectiveness in zero-shot and few-shot situations. The
work emphasizes the effectiveness and flexibility of LLMs in a variety of
linguistic circumstances, providing insightful information about the complex
field of depression detection models.
- Abstract(参考訳): うつ病を診断する静かな闘争が世界中で広まる中で、私たちの研究はメンタルヘルスとソーシャルメディアの重大なつながりに発展しました。
GPT 3.5, GPT 4 や提案した GPT 3.5 の微調整モデル DepGPT や高度な深層学習モデル (LSTM, Bi-LSTM, GRU, BiGRU) や Transformer モデル (BERT, BanglaBERT, SahajBERT, BanglaBERT-Base) を用いて, 抑うつの早期発見に焦点を当てた。
この研究はRedditとXのデータセットを「抑うつ」セグメントと「非抑うつ」セグメントに分類し、メンタルヘルスの専門知識を持つネイティブスピーカーによってベンガル語に翻訳し、ベンガル社会メディア抑うつデータセット(BSMDD)を作成した。
我々の研究は、各モデルに対する完全なアーキテクチャの詳細と、ゼロショットおよび少数ショット学習技術を用いて、ベンガルの抑うつ的テキスト分類におけるそれらの性能を評価する方法を提供する。
我々の研究は、各ドメインにFastTextを組み込んだSahajBERTとBi-LSTMの優位性を示すとともに、トランスフォーマーモデルによる説明可能性の問題にも取り組み、LLM(特にDepGPT)の有効性を強調し、様々な学習文脈における柔軟性と能力を示す。
実験結果によると,提案モデルであるdepgptは,ゼロショットと少数ショットのシナリオではalpaca lora 7bよりも優れており,0.9796に近い精度と0.9804のf1-score,高リコール,異常な精度を実現している。
gpt-3.5ターボとalpaca lora 7bは競争力は高いが、ゼロショットと少数ショットの状況では効果が比較的低い。
この研究は、様々な言語状況におけるLLMの有効性と柔軟性を強調し、うつ病検出モデルの複雑な分野に関する洞察力のある情報を提供する。
関連論文リスト
- A BERT-Based Summarization approach for depression detection [1.7363112470483526]
うつ病は世界中で流行する精神疾患であり、対処されないと深刻な反感を引き起こす可能性がある。
機械学習と人工知能は、さまざまなデータソースからのうつ病指標を自律的に検出することができる。
本研究では,入力テキストの長さと複雑さを低減させる前処理手法として,テキスト要約を提案する。
論文 参考訳(メタデータ) (2024-09-13T02:14:34Z) - Enhancing Depressive Post Detection in Bangla: A Comparative Study of TF-IDF, BERT and FastText Embeddings [0.0]
本研究は,バングラにおける抑うつ的なソーシャルメディア投稿を識別する手法を提案する。
ドメインの専門家によって注釈付けされたこの研究で使用されるデータセットには、抑うつ的ポストと非抑うつ的ポストの両方が含まれている。
クラス不均衡の問題に対処するために,マイノリティクラスに対するランダムなオーバーサンプリングを利用した。
論文 参考訳(メタデータ) (2024-07-12T11:40:17Z) - How Easy is It to Fool Your Multimodal LLMs? An Empirical Analysis on Deceptive Prompts [54.07541591018305]
提案するMAD-Benchは,既存のオブジェクト,オブジェクト数,空間関係などの5つのカテゴリに分割した1000の試験サンプルを含むベンチマークである。
我々は,GPT-4v,Reka,Gemini-Proから,LLaVA-NeXTやMiniCPM-Llama3といったオープンソースモデルに至るまで,一般的なMLLMを包括的に分析する。
GPT-4oはMAD-Bench上で82.82%の精度を達成するが、実験中の他のモデルの精度は9%から50%である。
論文 参考訳(メタデータ) (2024-02-20T18:31:27Z) - Calibration of Transformer-based Models for Identifying Stress and
Depression in Social Media [0.0]
本研究はソーシャルメディアにおける抑うつ・ストレス検出の課題における最初の研究であり,トランスフォーマーモデルに余分な言語情報を注入する。
提案手法では,BERT(MentalBERT)モデルに入力として付与される複合埋め込みを生成するために,マルチモーダル適応ゲートを用いる。
提案手法を3つの公開データセットで検証し,言語機能とトランスフォーマーモデルの統合が性能の急上昇を示すことを示す。
論文 参考訳(メタデータ) (2023-05-26T10:19:04Z) - Evaluating Psychological Safety of Large Language Models [72.88260608425949]
我々は,大規模言語モデル(LLM)の心理的安全性を評価するために,バイアスのないプロンプトを設計した。
短い暗黒トライアド(SD-3)とビッグファイブインベントリ(BFI)の2つのパーソナリティテストを用いて5種類のLDMを試験した。
毒性を減らすための安全基準を微調整したものの、InstructGPT, GPT-3.5, GPT-4は依然として暗い性格パターンを示した。
直接選好最適化を用いたBFIからの反応を微調整したLlama-2-chat-7Bは、モデルの心理的毒性を効果的に低減する。
論文 参考訳(メタデータ) (2022-12-20T18:45:07Z) - Prompting GPT-3 To Be Reliable [117.23966502293796]
この研究は信頼性を一般化可能性、公平性、校正性、事実性という4つの側面に分解する。
GPT-3はこれらすべての面において,より小型の教師付きモデルよりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-10-17T14:52:39Z) - DECK: Behavioral Tests to Improve Interpretability and Generalizability
of BERT Models Detecting Depression from Text [4.269268432906194]
テキストからうつ病を正確に検出するモデルは、パンデミック後の精神疾患に対処するための重要なツールである。
BERTベースの分類器の有望な性能と市販の可用性は、このタスクの優れた候補となる。
DeCK(Depression ChecKlist)は、抑うつ特異的なモデル行動テストで、より優れた解釈性を実現する。
論文 参考訳(メタデータ) (2022-09-12T14:39:46Z) - Prediction of Depression Severity Based on the Prosodic and Semantic
Features with Bidirectional LSTM and Time Distributed CNN [14.994852548758825]
抑うつ予測のための注意に基づくマルチモーダリティ音声とテキスト表現を提案する。
本モデルは,OzデータセットのDistress Analysis Interview Corpus-Wizardを用いて,参加者のうつ病重症度を推定するために訓練された。
実験では、過去の研究よりも統計的に有意な改善が見られた。
論文 参考訳(メタデータ) (2022-02-25T01:42:29Z) - Fine-Tuning Large Neural Language Models for Biomedical Natural Language
Processing [55.52858954615655]
バイオメディカルNLPの微調整安定性に関する系統的研究を行った。
我々は、特に低リソース領域において、微調整性能は事前トレーニング設定に敏感であることを示した。
これらの技術は低リソースバイオメディカルNLPアプリケーションの微調整性能を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2021-12-15T04:20:35Z) - What do Compressed Large Language Models Forget? Robustness Challenges
in Model Compression [68.82486784654817]
本稿では,知識蒸留とプルーニングを含む2つの一般的なモデル圧縮手法について検討する。
本研究では, 圧縮モデルが, 対向テストセット上のPLMモデルよりもはるかに頑健であることを示す。
サンプル不確実性に基づくモデル圧縮の正規化戦略を開発する。
論文 参考訳(メタデータ) (2021-10-16T00:20:04Z) - Joint Energy-based Model Training for Better Calibrated Natural Language
Understanding Models [61.768082640087]
自然言語理解タスクのための事前学習テキストエンコーダの微調整中に、共同エネルギーベースモデル(EBM)トレーニングを検討します。
実験では、EMMトレーニングはモデルが強力なベースラインに匹敵するより良いキャリブレーションに達するのに役立つことが示されています。
論文 参考訳(メタデータ) (2021-01-18T01:41:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。