論文の概要: Can Large Language Models Address Open-Target Stance Detection?
- arxiv url: http://arxiv.org/abs/2409.00222v1
- Date: Fri, 30 Aug 2024 19:26:15 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-06 16:18:33.973914
- Title: Can Large Language Models Address Open-Target Stance Detection?
- Title(参考訳): 大規模言語モデルはオープンターゲットスタンス検出に対処できるか?
- Authors: Abu Ubaida Akash, Ahmed Fahmy, Amine Trabelsi,
- Abstract要約: スタンス検出(SD)は、典型的には"favor"、"against"、"neutral"とラベル付けされた、ターゲットに対するテキストの位置を評価する。
オープンターゲットスタンス検出(OTSD, Open-Target Stance Detection)を導入する。
姿勢検出では、LLMは明示的なシナリオでは優れているが、非明示的なシナリオでは失敗する。
- 参考スコア(独自算出の注目度): 0.7032245866317618
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Stance detection (SD) assesses a text's position towards a target, typically labeled as "favor," "against," or "neutral." We introduce Open-Target Stance Detection (OTSD), where targets are neither seen during training nor provided as input. Evaluating Large Language Models (LLMs) like GPT-3.5, Llama 3, and Mistral, we compare their performance with the Target-Stance Extraction (TSE) approach, which has the advantage of using predefined targets. LLMs perform better than TSE in target generation when the real target is explicitly and not explicitly mentioned in the text. For stance detection, LLMs perform better in explicit scenarios but fail in non-explicit ones.
- Abstract(参考訳): スタンス検出(SD)は、テキストの位置を目標に向けて評価し、通常、"favor"、"against"、"neutral"とラベル付けされる。
オープンターゲットスタンス検出(OTSD, Open-Target Stance Detection)を導入する。
GPT-3.5, Llama 3, Mistral などの大規模言語モデル (LLMs) の評価を行い, その性能を, 事前定義された目標を用いたTSE (Target-Stance extract) アプローチと比較した。
LLMは、実際のターゲットが明示的に記述され、テキストに明示的に言及されていないときに、ターゲット生成においてTSEよりもパフォーマンスがよい。
姿勢検出では、LLMは明示的なシナリオでは優れているが、非明示的なシナリオでは失敗する。
関連論文リスト
- Fine-tuned Large Language Models (LLMs): Improved Prompt Injection Attacks Detection [6.269725911814401]
大きな言語モデル(LLM)は、幅広い言語ベースのタスクに対処する能力が大きく進歩しているため、人気ツールになりつつある。
しかし、LSMのアプリケーションはインジェクション攻撃に対して非常に脆弱であり、致命的な問題を引き起こす。
このプロジェクトでは,インジェクションのインジェクション攻撃に関連するセキュリティ脆弱性について検討する。
論文 参考訳(メタデータ) (2024-10-28T00:36:21Z) - Stanceformer: Target-Aware Transformer for Stance Detection [59.69858080492586]
スタンス検出は、テキストで表現されたスタンスを特定の主題やターゲットに向けて識別する。
以前の作業は、ターゲットを効果的に優先順位付けする能力に欠ける既存のトランスフォーマーモデルに依存していた。
本稿では,学習と推論の両方において,目標に対する注意を高めるターゲット対応トランスフォーマーモデルであるStanceformerを紹介する。
論文 参考訳(メタデータ) (2024-10-09T17:24:28Z) - Predicting User Stances from Target-Agnostic Information using Large Language Models [6.9337465525334405]
ターゲットに依存しないソーシャルメディア投稿のコレクションから,ターゲットに対するユーザの姿勢を予測できるLarge Language Models(LLMs)機能について検討した。
論文 参考訳(メタデータ) (2024-09-22T11:21:16Z) - SORRY-Bench: Systematically Evaluating Large Language Model Safety Refusal Behaviors [64.9938658716425]
安全でないユーザリクエストを認識して拒否する、大規模な言語モデル(LLM)の既存の評価は、3つの制限に直面している。
まず、既存の手法では、安全でないトピックの粗い粒度を使い、いくつかのきめ細かいトピックを過剰に表現している。
第二に、プロンプトの言語的特徴とフォーマッティングは、様々な言語、方言など、多くの評価において暗黙的にのみ考慮されているように、しばしば見過ごされる。
第3に、既存の評価は大きなLCMに頼っているため、コストがかかる可能性がある。
論文 参考訳(メタデータ) (2024-06-20T17:56:07Z) - Envisioning Outlier Exposure by Large Language Models for Out-of-Distribution Detection [71.93411099797308]
オープンワールドシナリオに機械学習モデルをデプロイする場合、アウト・オブ・ディストリビューション(OOD)サンプルは不可欠である。
本稿では,大規模言語モデル(LLM)の専門知識と推論能力を活用して,この制約に対処することを提案する。
EOEは、遠、近、きめ細かいOOD検出など、さまざまなタスクに一般化することができる。
EOEは様々なOODタスクで最先端のパフォーマンスを実現し、ImageNet-1Kデータセットに効果的にスケールできる。
論文 参考訳(メタデータ) (2024-06-02T17:09:48Z) - Target Span Detection for Implicit Harmful Content [18.84674403712032]
我々は、より微妙なヘイトスピーチを認識し、デジタルプラットフォーム上で有害なコンテンツを検出するために不可欠な、ヘイトスピーチの暗黙のターゲットを特定することに注力する。
我々は、SBIC、DynaHate、IHCの3つの顕著な暗黙のヘイトスピーチデータセットでターゲットを収集し、注釈付けする。
実験の結果,Implicit-Target-Spanはターゲットスパン検出法に挑戦的なテストベッドを提供することがわかった。
論文 参考訳(メタデータ) (2024-03-28T21:15:15Z) - The Strong Pull of Prior Knowledge in Large Language Models and Its Impact on Emotion Recognition [74.04775677110179]
In-context Learning (ICL) は、Large Language Models (LLM) を用いた自然言語処理のための強力なパラダイムとして登場した。
LLMには、感情認識において強いが矛盾する先行性があり、その予測に影響を及ぼすことが示される。
以上の結果から,ICLをより大きなLCMで事前学習領域外の情動中心タスクに使用する場合,注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2024-03-25T19:07:32Z) - Can We Identify Stance Without Target Arguments? A Study for Rumour
Stance Classification [10.19051099694573]
提案手法は,応答から直接自然に推定できる実世界のデータを含む,噂の姿勢分類データセットを示す。
2つのベンチマークデータセットで最先端のパフォーマンスを実現するため、ターゲットによる推論を強化するためのシンプルで効果的なフレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-22T15:44:15Z) - Selective In-Context Data Augmentation for Intent Detection using
Pointwise V-Information [100.03188187735624]
PLMとPVI(pointwise V-information)に基づく新しい手法を導入し,モデル学習におけるデータポイントの有用性を計測する。
提案手法はまず,学習データの小さなシード上でPLMを微調整し,与えられた意図に対応する発話を新たに生成する。
そこで本手法は,大規模言語モデルの表現力を活用し,多様な学習データを生成する。
論文 参考訳(メタデータ) (2023-02-10T07:37:49Z) - Meta-Learning with Context-Agnostic Initialisations [86.47040878540139]
メタ学習プロセスにコンテキスト・逆成分を導入する。
これにより、コンテキストに依存しないタスクを一般化したターゲットへの微調整の初期化が実現される。
我々は,3つのメタ学習アルゴリズムと2つの問題に対するアプローチを評価した。
論文 参考訳(メタデータ) (2020-07-29T08:08:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。