論文の概要: dzStance at StanceEval2024: Arabic Stance Detection based on Sentence Transformers
- arxiv url: http://arxiv.org/abs/2407.13603v1
- Date: Thu, 18 Jul 2024 15:43:27 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-19 14:51:11.008837
- Title: dzStance at StanceEval2024: Arabic Stance Detection based on Sentence Transformers
- Title(参考訳): dzStance at StanceEval2024: 文変換器を用いたアラビアスタンス検出
- Authors: Mohamed Lichouri, Khaled Lounnas, Khelil Rafik Ouaras, Mohamed Abi, Anis Guechtouli,
- Abstract要約: 本研究では,TF-IDF(Term Frequency-Inverse Document Frequency)とSentence Transformerを比較し,著者の姿勢を検出する。
本研究では,Sentence Transformer が TF-IDF 特性より優れていることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This study compares Term Frequency-Inverse Document Frequency (TF-IDF) features with Sentence Transformers for detecting writers' stances--favorable, opposing, or neutral--towards three significant topics: COVID-19 vaccine, digital transformation, and women empowerment. Through empirical evaluation, we demonstrate that Sentence Transformers outperform TF-IDF features across various experimental setups. Our team, dzStance, participated in a stance detection competition, achieving the 13th position (74.91%) among 15 teams in Women Empowerment, 10th (73.43%) in COVID Vaccine, and 12th (66.97%) in Digital Transformation. Overall, our team's performance ranked 13th (71.77%) among all participants. Notably, our approach achieved promising F1-scores, highlighting its effectiveness in identifying writers' stances on diverse topics. These results underscore the potential of Sentence Transformers to enhance stance detection models for addressing critical societal issues.
- Abstract(参考訳): 本研究は, 新型コロナウイルスワクチン, デジタルトランスフォーメーション, 女性のエンパワーメントの3つの重要なトピックについて, TF-IDF(Term Frequency-Inverse Document Frequency)機能と, 著者のスタンスを検出するセンテンストランスフォーマーを比較した。
経験的評価により,Sentence Transformer は様々な実験装置において TF-IDF 特性より優れていることを示した。
我々のチームはスタンス検出競技に参加し、女性エンパワーメント15チーム中13位(74.91%)、新型コロナウイルスワクチン10チーム(73.43%)、デジタルトランスフォーメーション12チーム(66.97%)を達成した。
チーム全体の成績は13位(71.77%)だった。
特に,本手法は有望なF1スコアを達成し,多種多様なトピックに対する作家のスタンスを特定する上での有効性を強調した。
これらの結果は、重要な社会問題に対処するための姿勢検出モデルを強化するためのセンテンストランスフォーマーの可能性を強調している。
関連論文リスト
- dzNLP at NADI 2024 Shared Task: Multi-Classifier Ensemble with Weighted Voting and TF-IDF Features [0.0]
本稿では,dzNLPチームのNADI 2024共有タスクへの貢献について述べる。
我々のアプローチは、従来の機械学習技術に頼りながら、F1スコアと精度の点で競争性能を実証した。
私たちのモデルは極めて正確でしたが、幅広い方言ラベルを思い出すのに苦労し、改善すべき重要な領域を強調しました。
論文 参考訳(メタデータ) (2024-07-18T15:47:42Z) - AILS-NTUA at SemEval-2024 Task 9: Cracking Brain Teasers: Transformer Models for Lateral Thinking Puzzles [1.9939549451457024]
本稿では,SemEval-2024タスク9コンペティションへの提案の概要を述べる。
我々は,様々な大きさのトランスフォーマーベース言語モデルを微調整により評価する。
トップパフォーマンスのアプローチは、競争のリーダーボード上での競争的なポジションを確保しました。
論文 参考訳(メタデータ) (2024-04-01T12:27:55Z) - Measuring Cross-Lingual Transferability of Multilingual Transformers on
Sentence Classification [49.8111760092473]
文分類タスクにおける多言語変換器のための言語間変換可能性指標IGapを提案する。
実験の結果,IGapは転送可能性測定と転送方向ランキングの基準値よりも優れていた。
その結果,多言語トランスフォーマーの理解を深める上で,言語間移動の3つの知見が得られた。
論文 参考訳(メタデータ) (2023-05-15T17:05:45Z) - mCPT at SemEval-2023 Task 3: Multilingual Label-Aware Contrastive
Pre-Training of Transformers for Few- and Zero-shot Framing Detection [63.540146992962526]
本稿では,ゼロショットスパニッシュフレーミング検出タスクの勝利システムについて述べる。
提案手法では,多言語変換器をベースとした事前学習手法を採用している。
本システムの記述に加えて, プレトレーニングがフレーミング検出にどのように役立つかを示すために, 埋め込み空間解析およびアブレーション研究を行った。
論文 参考訳(メタデータ) (2023-03-17T11:33:06Z) - ERNIE-SPARSE: Learning Hierarchical Efficient Transformer Through
Regularized Self-Attention [48.697458429460184]
情報ボトルネック感度と異なる注目トポロジ間の不整合の2つの要因がスパース変換器の性能に影響を及ぼす可能性がある。
本稿では,ERNIE-Sparseというモデルを提案する。
i) 局所情報とグローバル情報を逐次統一する階層スパース変換器(HST) と、(ii) 注意トポロジの異なる変換器の距離を最小化する自己注意正規化(SAR) の2つの特徴がある。
論文 参考訳(メタデータ) (2022-03-23T08:47:01Z) - Can Transformers be Strong Treatment Effect Estimators? [86.32484218657166]
本研究では,様々な処理効果推定問題に対処するために,Transformerアーキテクチャに基づく汎用フレームワークを開発する。
本手法は, 離散的, 連続的, 構造的, あるいは服用関連治療に応用される。
Transformers as Treatment Effect Estimator (TransTEE) を用いて行った実験は、これらの誘導バイアスが因果効果を推定する研究で発生する推定問題やデータセットの種類にも有効であることを示した。
論文 参考訳(メタデータ) (2022-02-02T23:56:42Z) - Understanding the Role of Affect Dimensions in Detecting Emotions from
Tweets: A Multi-task Approach [14.725717500450623]
本稿では,感情表現のカテゴリー的モデルと次元的モデルとの相関を利用して主観的分析を行うVADECを提案する。
マルチラベル感情分類と多次元感情回帰を共同トレーニングし、タスク間の関連性を活用します。
論文 参考訳(メタデータ) (2021-05-09T18:07:04Z) - Multi-Unit Transformers for Neural Machine Translation [51.418245676894465]
マルチユニット変換器 (MUTE) を提案し, 変換器の表現性を向上する。
具体的には、複数の並列ユニットを使用し、複数のユニットによるモデリングがモデル性能を改善し、多様性を導入することを示す。
論文 参考訳(メタデータ) (2020-10-21T03:41:49Z) - From Sound Representation to Model Robustness [82.21746840893658]
本研究では, 環境音の標準的な表現(スペクトログラム)が, 被害者の残差畳み込みニューラルネットワークの認識性能と対角攻撃性に与える影響について検討する。
3つの環境音響データセットの様々な実験から、ResNet-18モデルは、他のディープラーニングアーキテクチャよりも優れていることがわかった。
論文 参考訳(メタデータ) (2020-07-27T17:30:49Z) - Transformer-based Context-aware Sarcasm Detection in Conversation
Threads from Social Media [17.17880150351333]
我々は,より堅牢な予測のために,会話スレッド全体のコンテキストを考慮したトランスフォーマーに基づくサルカズム検出モデルを提案する。
我々のモデルは、スレッド内のターゲット発話と関連するコンテキストの間で、ディープトランスフォーマー層を用いてマルチヘッドアテンションを実行する。
コンテキスト認識モデルは、ソーシャルメディア、Twitter、Redditの2つのデータセットで評価され、ベースラインよりも3.1%と7.0%改善されている。
論文 参考訳(メタデータ) (2020-05-22T23:41:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。