論文の概要: Zero-Shot Stance Detection in the Wild: Dynamic Target Generation and Multi-Target Adaptation
- arxiv url: http://arxiv.org/abs/2601.19802v2
- Date: Wed, 28 Jan 2026 06:17:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-29 13:43:09.376319
- Title: Zero-Shot Stance Detection in the Wild: Dynamic Target Generation and Multi-Target Adaptation
- Title(参考訳): 野生におけるゼロショットスタンス検出:動的ターゲット生成とマルチターゲット適応
- Authors: Aohua Li, Yuanshuo Zhang, Ge Gao, Bo Chen, Xiaobing Zhao,
- Abstract要約: 我々は,動的ターゲット生成とマルチターゲット適応による野生でのゼロショット姿勢検出という新しい課題を提案する。
我々は,中国のソーシャルメディアスタンス検出データセットを構築し,多次元評価指標を設計する。
- 参考スコア(独自算出の注目度): 13.424443287821118
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Current stance detection research typically relies on predicting stance based on given targets and text. However, in real-world social media scenarios, targets are neither predefined nor static but rather complex and dynamic. To address this challenge, we propose a novel task: zero-shot stance detection in the wild with Dynamic Target Generation and Multi-Target Adaptation (DGTA), which aims to automatically identify multiple target-stance pairs from text without prior target knowledge. We construct a Chinese social media stance detection dataset and design multi-dimensional evaluation metrics. We explore both integrated and two-stage fine-tuning strategies for large language models (LLMs) and evaluate various baseline models. Experimental results demonstrate that fine-tuned LLMs achieve superior performance on this task: the two-stage fine-tuned Qwen2.5-7B attains the highest comprehensive target recognition score of 66.99%, while the integrated fine-tuned DeepSeek-R1-Distill-Qwen-7B achieves a stance detection F1 score of 79.26%.
- Abstract(参考訳): 現在の姿勢検出研究は、通常、所定の目標とテキストに基づいて姿勢を予測することに依存する。
しかし、現実のソーシャルメディアのシナリオでは、ターゲットは事前定義や静的ではなく、むしろ複雑でダイナミックである。
この課題に対処するために,動的ターゲット生成とマルチターゲット適応(DGTA)を併用した野生域でのゼロショットスタンス検出(ゼロショットスタンス検出)を提案する。
我々は,中国のソーシャルメディアスタンス検出データセットを構築し,多次元評価指標を設計する。
大規模言語モデル(LLM)の統合および2段階の微調整戦略について検討し,様々なベースラインモデルを評価する。
2段階の微調整Qwen2.5-7Bは66.99%、統合された微調整DeepSeek-R1-Distill-Qwen-7Bは79.26%である。
関連論文リスト
- Zero-Shot Conversational Stance Detection: Dataset and Approaches [24.892337124161983]
スタンス検出は、ソーシャルメディアデータを用いて特定のターゲットに対する世論を識別することを目的としている。
我々は、ZS-CSDという、大規模で高品質なゼロショットスタンス検出データセットを手動でキュレートする。
SITPCL, 話者インタラクションとターゲット認識型プロトタイプ型コントラスト学習モデルを提案し, ゼロショット環境でのベンチマーク性能を確立する。
論文 参考訳(メタデータ) (2025-06-21T12:02:06Z) - Oriented Tiny Object Detection: A Dataset, Benchmark, and Dynamic Unbiased Learning [51.170479006249195]
本研究では,新しいデータセット,ベンチマーク,動的粗大な学習手法を提案する。
提案するデータセットであるAI-TOD-Rは、すべてのオブジェクト指向オブジェクト検出データセットの中で最小のオブジェクトサイズを特徴としている。
完全教師付きおよびラベル効率の両アプローチを含む,幅広い検出パラダイムにまたがるベンチマークを提案する。
論文 参考訳(メタデータ) (2024-12-16T09:14:32Z) - Target-Oriented Object Grasping via Multimodal Human Guidance [6.031799490542892]
従来の把握検出手法は、シーン全体を解析して把握を予測し、冗長性と非効率性をもたらす。
本研究では,目標参照視点から6-DoFのグリップ検出を再検討し,TOGNet(Target-Oriented Grasp Network)を提案する。
TOGNetは特に、より効率的に把握を予測するために、ローカルでオブジェクトに依存しない領域パッチをターゲットにしている。
論文 参考訳(メタデータ) (2024-08-20T18:42:56Z) - SOOD++: Leveraging Unlabeled Data to Boost Oriented Object Detection [68.18620488664187]
本稿では,SOOD++ と呼ばれる簡易かつ効果的な半教師付きオブジェクト指向検出手法を提案する。
具体的には、空中画像からの物体は、通常任意の向き、小さなスケール、密度分布を持つ。
各種ラベル付き環境下での多目的対象物に対する大規模な実験により,本手法の有効性が示された。
論文 参考訳(メタデータ) (2024-07-01T07:03:51Z) - Reinforcement Learning for Agile Active Target Sensing with a UAV [10.070339628481445]
本稿では,情報トラジェクトリを計画するための深層強化学習手法を開発する。
ターゲット状態に対する現在の信念を活用し、高忠実度分類のための不正確なセンサーモデルを含む。
提案手法の特異な特徴は,真の目標分布から様々な量の偏差が生じることにある。
論文 参考訳(メタデータ) (2022-12-16T01:01:17Z) - Zero-shot stance detection based on cross-domain feature enhancement by
contrastive learning [9.719309795292773]
我々は、見えないターゲットに効率的に適応できる姿勢検出手法を提案する。
まず、文章の話題語をマスキングすることで、データを増強する。
次に、拡張データを教師なしのコントラスト学習モジュールに供給し、転送可能な特徴をキャプチャする。
論文 参考訳(メタデータ) (2022-10-07T07:45:40Z) - AcroFOD: An Adaptive Method for Cross-domain Few-shot Object Detection [59.10314662986463]
クロスドメインの少数ショットオブジェクト検出は、いくつかの注釈付きターゲットデータで対象ドメイン内のオブジェクト検出器を適応することを目的としている。
提案手法は,複数のベンチマーク上での最先端性能を実現する。
論文 参考訳(メタデータ) (2022-09-22T10:23:40Z) - End-to-End Zero-Shot HOI Detection via Vision and Language Knowledge
Distillation [86.41437210485932]
我々は、ゼロショットHOI検出を前進させ、同時に見えないHOIと見えないHOIの両方を検出することを目指している。
本稿では,視覚言語による知識蒸留によるエンドツーエンドのゼロショットHOI検出フレームワークを提案する。
本手法は, 従来のSOTAを8.92%, 全体の10.18%で上回っている。
論文 参考訳(メタデータ) (2022-04-01T07:27:19Z) - Learning Target Candidate Association to Keep Track of What Not to Track [100.80610986625693]
目標を追尾し続けるために、逸脱物を追跡することを提案します。
視覚的トラッキングにおいて, トラクタオブジェクト間の接地トルース対応を欠く問題に対処するために, 部分アノテーションと自己監督を組み合わせたトレーニング戦略を提案する。
我々のトラッカーは6つのベンチマークで新しい最先端のベンチマークを設定し、AUCスコアはLaSOTで67.2%、OxUvA長期データセットで+6.1%向上した。
論文 参考訳(メタデータ) (2021-03-30T17:58:02Z) - Dynamic Refinement Network for Oriented and Densely Packed Object
Detection [75.29088991850958]
本稿では,機能選択モジュール (FSM) と動的改善ヘッド (DRH) の2つの新しいコンポーネントからなる動的精細化ネットワークを提案する。
我々のFSMは、ニューロンがターゲットオブジェクトの形状や向きに応じて受容野を調整できるのに対して、DRHはオブジェクト認識の方法で動的に予測を洗練させる。
我々は、DOTA、HRSC2016、SKU110K、および我々のSKU110K-Rデータセットを含むいくつかの公開ベンチマークで定量的評価を行う。
論文 参考訳(メタデータ) (2020-05-20T11:35:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。