論文の概要: Sarcasm Detection as a Catalyst: Improving Stance Detection with Cross-Target Capabilities
- arxiv url: http://arxiv.org/abs/2503.03787v1
- Date: Wed, 05 Mar 2025 05:27:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-07 16:01:35.795136
- Title: Sarcasm Detection as a Catalyst: Improving Stance Detection with Cross-Target Capabilities
- Title(参考訳): 触媒としてのサーカスム検出:クロスターゲット機能によるスタンス検出の改善
- Authors: Gibson Nkhata Shi Yin Hong, Susan Gauch,
- Abstract要約: 本論文は,スタンス検出(SD)のための皮肉を用いている。
また、Cross-Target SDを実行することで、新たなターゲット上でSDモデルをトレーニングするためのアノテートデータ不足にも対処している。
提案手法では,BERTモデルとRoBERTaモデルを微調整し,さらにディープラーニング層を結合する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Stance Detection (SD) has become a critical area of interest due to its applications in various contexts leading to increased research within NLP. Yet the subtlety and complexity of texts sourced from online platforms often containing sarcastic language pose significant challenges for SD algorithms in accurately determining the authors stance. This paper addresses this by employing sarcasm for SD. It also tackles the issue of insufficient annotated data for training SD models on new targets by conducting Cross-Target SD (CTSD). The proposed approach involves fine-tuning BERT and RoBERTa models followed by concatenating additional deep learning layers. The approach is assessed against various State-Of-The-Art baselines for SD demonstrating superior performance using publicly available datasets. Notably our model outperforms the best SOTA models on both in-domain SD and CTSD tasks even before the incorporation of sarcasm-detection pre-training. The integration of sarcasm knowledge into the model significantly reduces misclassifications of sarcastic text elements in SD allowing our model to accurately predict 85% of texts that were previously misclassified without sarcasm-detection pre-training on in-domain SD. This enhancement contributes to an increase in the models average macro F1-score. The CTSD task achieves performance comparable to that of the in-domain task despite using a zero-shot finetuning. We also reveal that the success of the transfer-learning framework relies on the correlation between the lexical attributes of sarcasm detection and SD. This study represents the first exploration of sarcasm detection as an intermediate transfer-learning task within the context of SD while also leveraging the concatenation of BERT or RoBERTa with other deep-learning techniques. The proposed approach establishes a foundational baseline for future research in this domain.
- Abstract(参考訳): スタンス検出(SD)は、様々な文脈で応用され、NLP内での研究が増加しているため、重要な分野となっている。
しかし、しばしばサーカシック言語を含むオンラインプラットフォームから得られるテキストの微妙さと複雑さは、著者のスタンスを正確に決定する上で、SDアルゴリズムに重大な課題をもたらす。
本稿では,SarcasmをSDに用いることでこの問題に対処する。
また、CTSD(Cross-Target SD)を実行することで、新たなターゲット上でのSDモデルのトレーニングに十分なアノテートデータの問題にも対処している。
提案手法では,BERTモデルとRoBERTaモデルを微調整し,さらにディープラーニング層を結合する。
このアプローチは、パブリックデータセットを使用して優れたパフォーマンスを示すSDのさまざまなState-Of-The-Artベースラインに対して評価される。
特に,本モデルは,Sarcasm-detection pre-trainingの導入前であっても,ドメイン内SDおよびCTSDタスクにおいて最高のSOTAモデルより優れている。
このモデルへのサルカスタム知識の統合により、SD内のサーカスタムテキスト要素の誤分類を著しく低減し、これまで非分類であった85%のテキストを、ドメイン内のSD上でサルカスタム検出事前トレーニングなしで正確に予測することができる。
この拡張は、平均的なマクロF1スコアの増加に寄与する。
CTSDタスクは、ゼロショット微調整を使用しても、ドメイン内のタスクに匹敵するパフォーマンスを達成する。
また,移動学習フレームワークの成功は,サルカズム検出の語彙特性とSDの相関に依拠していることも明らかにした。
本研究は,Sarcasm検出をSDの文脈における中間的伝達学習タスクとして初めて探求し,BERTやRoBERTaと他の深層学習技術との結合を利用した。
提案手法は,本領域における今後の研究の基盤となる基盤となる。
関連論文リスト
- An Innovative CGL-MHA Model for Sarcasm Sentiment Recognition Using the MindSpore Framework [0.0]
サルカズムは、明らかに肯定的あるいは誇張された言語を通して否定的な感情を伝達する。
本稿では, CNN, Gated Recurrent Units (GRU), Long Short-Term Memory (LSTM), Multi-Head Attention 機構を統合した革新的な皮肉検出モデルを提案する。
HeadlinesとRiloffの2つの皮肉検出データセットの実験では、モデルが81.20%、F1スコアが80.77%に達することが示されている。
論文 参考訳(メタデータ) (2024-11-02T14:33:47Z) - High-Performance Few-Shot Segmentation with Foundation Models: An Empirical Study [64.06777376676513]
基礎モデルに基づく数ショットセグメンテーション(FSS)フレームワークを開発した。
具体的には、基礎モデルから暗黙的な知識を抽出し、粗い対応を構築するための簡単なアプローチを提案する。
2つの広く使われているデータセットの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2024-09-10T08:04:11Z) - How Much Data are Enough? Investigating Dataset Requirements for Patch-Based Brain MRI Segmentation Tasks [74.21484375019334]
ディープニューラルネットワークを確実にトレーニングするには、大規模なデータセットへのアクセスが必要である。
モデル開発に関連する時間的・経済的コストを緩和するためには,満足度の高いモデルをトレーニングするために必要なデータの量を明確に理解することが重要である。
本稿では,パッチベースのセグメンテーションネットワークのトレーニングに必要なアノテートデータの量を推定するための戦略的枠組みを提案する。
論文 参考訳(メタデータ) (2024-04-04T13:55:06Z) - Spanning Training Progress: Temporal Dual-Depth Scoring (TDDS) for Enhanced Dataset Pruning [50.809769498312434]
我々は、時間的デュアルディープス・スコーリング(TDDS)と呼ばれる新しいデータセット・プルーニング手法を提案する。
本手法は,10%のトレーニングデータで54.51%の精度を達成し,ランダム選択を7.83%以上,他の比較手法を12.69%以上上回る結果を得た。
論文 参考訳(メタデータ) (2023-11-22T03:45:30Z) - Implicit Counterfactual Data Augmentation for Robust Learning [24.795542869249154]
本研究では, 突発的相関を除去し, 安定した予測を行うために, インプリシト・カウンセショナル・データ拡張法を提案する。
画像とテキストのデータセットをカバーする様々なバイアス付き学習シナリオで実験が行われてきた。
論文 参考訳(メタデータ) (2023-04-26T10:36:40Z) - TWINS: A Fine-Tuning Framework for Improved Transferability of
Adversarial Robustness and Generalization [89.54947228958494]
本稿では,様々な分類タスクにおいて,逆向きに事前訓練されたモデルの微調整に焦点を当てる。
本稿では,TWINS(Two-WIng NormliSation)ファインチューニングフレームワークを提案する。
TWINSは、一般化とロバスト性の両方の観点から、幅広い画像分類データセットに有効であることが示されている。
論文 参考訳(メタデータ) (2023-03-20T14:12:55Z) - Uncovering the Handwritten Text in the Margins: End-to-end Handwritten
Text Detection and Recognition [0.840835093659811]
本研究は,手書きペラリアの自動検出と認識のためのエンドツーエンドフレームワークを提案する。
データ拡張と転送学習を使用して、トレーニングデータの不足を克服する。
このフレームワークの有効性はスウェーデンのウプサラ大学図書館で発見された初期の書籍コレクションのデータから実証的に評価されている。
論文 参考訳(メタデータ) (2023-03-10T14:00:53Z) - Contextual Squeeze-and-Excitation for Efficient Few-Shot Image
Classification [57.36281142038042]
本稿では,事前学習したニューラルネットワークを新しいタスクで調整し,性能を大幅に向上させる,Contextual Squeeze-and-Excitation (CaSE) という適応ブロックを提案する。
また、メタトレーニングされたCaSEブロックと微調整ルーチンを利用して効率よく適応する、アッパーCaSEと呼ばれるコーディネートダイスに基づく新しいトレーニングプロトコルを提案する。
論文 参考訳(メタデータ) (2022-06-20T15:25:08Z) - FEWS: Large-Scale, Low-Shot Word Sense Disambiguation with the
Dictionary [43.32179344258548]
Word Sense Disambiguation (WSD) の現在のモデルは、稀な感覚の曖昧化に苦慮している。
本稿では、wiktionaryの例文から自動的に抽出される新しい低ショットwsdデータセットである fews を紹介する。
論文 参考訳(メタデータ) (2021-02-16T07:13:34Z) - Joint Contextual Modeling for ASR Correction and Language Understanding [60.230013453699975]
言語理解(LU)と協調してASR出力の文脈的言語補正を行うマルチタスクニューラルアプローチを提案する。
そこで本研究では,市販のASRおよびLUシステムの誤差率を,少量のドメイン内データを用いてトレーニングしたジョイントモデルと比較して14%削減できることを示した。
論文 参考訳(メタデータ) (2020-01-28T22:09:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。