論文の概要: Bryndza at ClimateActivism 2024: Stance, Target and Hate Event Detection
via Retrieval-Augmented GPT-4 and LLaMA
- arxiv url: http://arxiv.org/abs/2402.06549v1
- Date: Fri, 9 Feb 2024 17:02:41 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-12 16:01:44.503264
- Title: Bryndza at ClimateActivism 2024: Stance, Target and Hate Event Detection
via Retrieval-Augmented GPT-4 and LLaMA
- Title(参考訳): Bryndza at ClimateActivism 2024: Stance, Target and Hate Event Detection via Retrieval-Augmented GPT-4 and LLaMA (英語)
- Authors: Marek \v{S}uppa and Daniel Skala and Daniela Ja\v{s}\v{s} and Samuel
Su\v{c}\'ik and Andrej \v{S}vec and Peter Hra\v{s}ka
- Abstract要約: 本研究は,気候活動状況とHate Event Detectionに関するCASE 2024共有課題に対する我々のアプローチを詳述する。
我々は,大規模言語モデル(LLM),特にGPT-4のゼロショットや少数ショットの設定能力について検討した。
その結果,本モデルがベースラインを著しく上回り,ターゲット検出タスクにおいて第2位を確保したことが示唆された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This study details our approach for the CASE 2024 Shared Task on Climate
Activism Stance and Hate Event Detection, focusing on Hate Speech Detection,
Hate Speech Target Identification, and Stance Detection as classification
challenges. We explored the capability of Large Language Models (LLMs),
particularly GPT-4, in zero- or few-shot settings enhanced by retrieval
augmentation and re-ranking for Tweet classification. Our goal was to determine
if LLMs could match or surpass traditional methods in this context.
We conducted an ablation study with LLaMA for comparison, and our results
indicate that our models significantly outperformed the baselines, securing
second place in the Target Detection task. The code for our submission is
available at https://github.com/NaiveNeuron/bryndza-case-2024
- Abstract(参考訳): 本研究は,Hate Speech Detection, Hate Speech Target Identification, and Stance Detectionの分類課題として,CASE 2024(CASE 2024)とHate Event Detection(Hate Event Detection)について詳述する。
検索の強化とツイート分類の再ランキングによって強化されたゼロショットまたは少数ショット設定において,大規模言語モデル(llms),特にgpt-4の機能について検討した。
私たちのゴールは、LLMがこの文脈で従来のメソッドにマッチするかどうかを判断することでした。
比較のためにLLaMAを用いてアブレーション試験を行い,本研究の結果,本モデルがベースラインを著しく上回り,ターゲット検出タスクにおいて第2位を確保した。
私たちの提出するコードはhttps://github.com/NaiveNeuron/bryndza-case-2024で入手可能です。
関連論文リスト
- Can Large Language Models Address Open-Target Stance Detection? [0.7032245866317618]
Open-Target Stance Detection (OTSD) は、トレーニング中にターゲットが見つからず、入力として提供されない、最も現実的なタスクである。
我々は,Large Language Models (LLMs) GPT-4o, GPT-3.5, Llama-3, Mistralの評価を行い,その性能を既存の作品であるTarget-Stance extract (TSE)と比較した。
実験の結果,実対象が明示的に記述され,テキストに明記されていない場合,LLMはターゲット生成においてTSEを上回っていることがわかった。
論文 参考訳(メタデータ) (2024-08-30T19:26:15Z) - Enhancing Event Reasoning in Large Language Models through Instruction Fine-Tuning with Semantic Causal Graphs [7.9482258228279195]
イベント検出のための命令微調整LDMに対する新しいアプローチを提案する。
本手法ではセマンティック因果グラフ(SCG)を導入し,テキスト内の因果関係と文脈情報の両方を抽出する。
評価の結果,SCG 命令を用いた LLM の訓練は,イベントトリガー分類において,平均35.69% の精度で標準命令の微調整に優れていた。
論文 参考訳(メタデータ) (2024-08-30T18:56:06Z) - Harnessing Temporal Causality for Advanced Temporal Action Detection [53.654457142657236]
本稿では,因果的注意と因果的マンバを組み合わせたCausalTADを提案する。
Ego4D Challenge 2024では,EPIC-Kitchens Challenge 2024では行動認識,行動検出,音声によるインタラクション検出トラックで1位,Ego4D Challenge 2024ではMoment Queriesトラックで1位にランクインした。
論文 参考訳(メタデータ) (2024-07-25T06:03:02Z) - Investigating Annotator Bias in Large Language Models for Hate Speech Detection [5.589665886212444]
本稿では,ヘイトスピーチデータに注釈をつける際に,Large Language Models (LLMs) に存在するバイアスについて考察する。
具体的には、これらのカテゴリ内の非常に脆弱なグループを対象として、アノテータバイアスを分析します。
我々は,この研究を行うために,独自のヘイトスピーチ検出データセットであるHateBiasNetを紹介した。
論文 参考訳(メタデータ) (2024-06-17T00:18:31Z) - DetToolChain: A New Prompting Paradigm to Unleash Detection Ability of MLLM [81.75988648572347]
DetToolChainはマルチモーダル大言語モデル(MLLM)のゼロショットオブジェクト検出能力を解き放つ新しいパラダイムである。
提案手法は,高精度検出にヒントを得た検出プロンプトツールキットと,これらのプロンプトを実装するための新しいChain-of-Thoughtから構成される。
DetToolChainを用いたGPT-4Vは,オープン語彙検出のための新しいクラスセットにおいて,最先端のオブジェクト検出器を+21.5%AP50で改善することを示す。
論文 参考訳(メタデータ) (2024-03-19T06:54:33Z) - Z-AGI Labs at ClimateActivism 2024: Stance and Hate Event Detection on Social Media [0.0]
この研究は、ケース2024における気候活動状況とヘイト事象の検出に関する共有タスクの確立につながった。
ソーシャルメディア上でヘイトスピーチと競合する気候活動家に焦点をあてて、我々の研究はツイートからのヘイトスピーチの識別に寄与する。
チームZ-AGI LabsはTLTM、Xgboost、LGBMなど様々なモデルをTf-Idfに基づいて評価した。
論文 参考訳(メタデータ) (2024-02-26T20:43:48Z) - Zero-Shot Temporal Action Detection via Vision-Language Prompting [134.26292288193298]
視覚言語プロンプト(STALE)を用いた新しいゼロショット時間行動検出モデルを提案する。
我々のモデルは最先端の代替品を著しく上回っている。
我々のモデルは、近年の強力な競合相手よりも監督的TADにおいて優れた結果をもたらす。
論文 参考訳(メタデータ) (2022-07-17T13:59:46Z) - Segment-level Metric Learning for Few-shot Bioacoustic Event Detection [56.59107110017436]
本稿では,モデル最適化時の肯定的事象と否定的事象の両方を利用するセグメントレベルの数ショット学習フレームワークを提案する。
本システムでは,DCASE2022チャレンジタスク5(DCASE2022-T5)のF値62.73の検証を行い,ベースラインプロトタイプネットワーク34.02の性能を大きなマージンで向上させる。
論文 参考訳(メタデータ) (2022-07-15T22:41:30Z) - Deep Learning for Hate Speech Detection: A Comparative Study [54.42226495344908]
ここでは, ディープ・ヘイト・音声検出法と浅いヘイト・音声検出法を大規模に比較した。
私たちの目標は、この地域の進歩を照らし、現在の最先端の強みと弱点を特定することです。
そこで我々は,ヘイトスピーチ検出の実践的利用に関するガイダンスの提供,最先端の定量化,今後の研究方向の特定を目的としている。
論文 参考訳(メタデータ) (2022-02-19T03:48:20Z) - Detection of Adversarial Supports in Few-shot Classifiers Using Feature
Preserving Autoencoders and Self-Similarity [89.26308254637702]
敵対的なサポートセットを強調するための検出戦略を提案する。
我々は,特徴保存型オートエンコーダフィルタリングと,この検出を行うサポートセットの自己相似性の概念を利用する。
提案手法は攻撃非依存であり, 最善の知識まで, 数発分類器の検出を探索する最初の方法である。
論文 参考訳(メタデータ) (2020-12-09T14:13:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。