論文の概要: Zero-shot stance detection based on cross-domain feature enhancement by
contrastive learning
- arxiv url: http://arxiv.org/abs/2210.03380v1
- Date: Fri, 7 Oct 2022 07:45:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-10 12:49:44.290975
- Title: Zero-shot stance detection based on cross-domain feature enhancement by
contrastive learning
- Title(参考訳): コントラスト学習によるクロスドメイン特徴強調に基づくゼロショット姿勢検出
- Authors: Xuechen Zhao, Jiaying Zou, Zhong Zhang, Feng Xie, Bin Zhou, Lei Tian
- Abstract要約: 我々は、見えないターゲットに効率的に適応できる姿勢検出手法を提案する。
まず、文章の話題語をマスキングすることで、データを増強する。
次に、拡張データを教師なしのコントラスト学習モジュールに供給し、転送可能な特徴をキャプチャする。
- 参考スコア(独自算出の注目度): 9.719309795292773
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Zero-shot stance detection is challenging because it requires detecting the
stance of previously unseen targets in the inference phase. The ability to
learn transferable target-invariant features is critical for zero-shot stance
detection. In this work, we propose a stance detection approach that can
efficiently adapt to unseen targets, the core of which is to capture
target-invariant syntactic expression patterns as transferable knowledge.
Specifically, we first augment the data by masking the topic words of
sentences, and then feed the augmented data to an unsupervised contrastive
learning module to capture transferable features. Then, to fit a specific
target, we encode the raw texts as target-specific features. Finally, we adopt
an attention mechanism, which combines syntactic expression patterns with
target-specific features to obtain enhanced features for predicting previously
unseen targets. Experiments demonstrate that our model outperforms competitive
baselines on four benchmark datasets.
- Abstract(参考訳): ゼロショットの姿勢検出は、推論フェーズでこれまで見つからなかった目標の姿勢を検出する必要があるため、難しい。
移動可能な目標不変特徴を学習する能力はゼロショット姿勢検出に不可欠である。
そこで本研究では,目標非不変の構文表現パターンを伝達可能な知識として捉えることを目的として,非知覚目標に効率的に適応できる姿勢検出手法を提案する。
具体的には,まず文の話題単語をマスキングしてデータ拡張を行い,教師なしのコントラスト学習モジュールに拡張データを供給して転送可能な特徴をキャプチャする。
そして、特定のターゲットに合うように、生のテキストをターゲット特有の特徴としてエンコードします。
最後に,構文表現パターンとターゲット特有の特徴を組み合わせた注意機構を採用し,これまで見つからなかった目標を予測できる機能を強化した。
実験は、4つのベンチマークデータセットの競合ベースラインを上回ることを実証する。
関連論文リスト
- Stanceformer: Target-Aware Transformer for Stance Detection [59.69858080492586]
スタンス検出は、テキストで表現されたスタンスを特定の主題やターゲットに向けて識別する。
以前の作業は、ターゲットを効果的に優先順位付けする能力に欠ける既存のトランスフォーマーモデルに依存していた。
本稿では,学習と推論の両方において,目標に対する注意を高めるターゲット対応トランスフォーマーモデルであるStanceformerを紹介する。
論文 参考訳(メタデータ) (2024-10-09T17:24:28Z) - Guiding Computational Stance Detection with Expanded Stance Triangle
Framework [25.2980607215715]
スタンス検出は、テキストの著者が指定されたターゲットに対して有利か、反対か、中立かを決定する。
本稿では,言語的観点からスタンス検出タスクを分解し,このタスクにおける重要な構成要素と推論経路について検討する。
論文 参考訳(メタデータ) (2023-05-31T13:33:29Z) - Object-fabrication Targeted Attack for Object Detection [54.10697546734503]
物体検出の敵攻撃は 標的攻撃と未標的攻撃を含む。
新たなオブジェクトファブリケーションターゲット攻撃モードは、特定のターゲットラベルを持つ追加の偽オブジェクトをファブリケートする検出器を誤解させる可能性がある。
論文 参考訳(メタデータ) (2022-12-13T08:42:39Z) - AcroFOD: An Adaptive Method for Cross-domain Few-shot Object Detection [59.10314662986463]
クロスドメインの少数ショットオブジェクト検出は、いくつかの注釈付きターゲットデータで対象ドメイン内のオブジェクト検出器を適応することを目的としている。
提案手法は,複数のベンチマーク上での最先端性能を実現する。
論文 参考訳(メタデータ) (2022-09-22T10:23:40Z) - Robust Region Feature Synthesizer for Zero-Shot Object Detection [87.79902339984142]
我々は,クラス内セマンティック・ディバージングコンポーネントとクラス間構造保存コンポーネントを含む,新しいゼロショットオブジェクト検出フレームワークを構築した。
リモートセンシング画像においてゼロショット物体検出を行う最初の研究である。
論文 参考訳(メタデータ) (2022-01-01T03:09:15Z) - Real-World Semantic Grasping Detection [0.34410212782758054]
本稿では,意味認識と把握検出を両立できるエンドツーエンドのセマンティック把握検出モデルを提案する。
また,検出を把握するためのセマンティック情報に基づき,単一のオブジェクトの特徴のみを保持するターゲット特徴フィルタリング機構を設計する。
実験結果から,コーネルグルーピングデータセットの98.38%の精度が得られた。
論文 参考訳(メタデータ) (2021-11-20T05:57:22Z) - ZSD-YOLO: Zero-Shot YOLO Detection using Vision-Language
KnowledgeDistillation [5.424015823818208]
COCOのようなデータセットは、多くの画像に広く注釈付けされているが、多数のカテゴリがあり、さまざまなドメインにまたがるすべてのオブジェクトクラスに注釈を付けるのは高価で難しい。
我々は,CLIPのようなゼロショット事前学習モデルからの画像とテキストの埋め込みを,YOLOv5のような一段検出器からの修正意味予測ヘッドに整合させるビジョン・ランゲージ蒸留法を開発した。
推論中、我々のモデルは追加のトレーニングなしで任意の数のオブジェクトクラスを検出するように適応できる。
論文 参考訳(メタデータ) (2021-09-24T16:46:36Z) - Detection of Adversarial Supports in Few-shot Classifiers Using Feature
Preserving Autoencoders and Self-Similarity [89.26308254637702]
敵対的なサポートセットを強調するための検出戦略を提案する。
我々は,特徴保存型オートエンコーダフィルタリングと,この検出を行うサポートセットの自己相似性の概念を利用する。
提案手法は攻撃非依存であり, 最善の知識まで, 数発分類器の検出を探索する最初の方法である。
論文 参考訳(メタデータ) (2020-12-09T14:13:41Z) - Synthesizing the Unseen for Zero-shot Object Detection [72.38031440014463]
そこで本研究では,視覚領域における視覚的特徴と視覚的対象の両方を学習するために,視覚的特徴を合成することを提案する。
クラスセマンティックスを用いた新しい生成モデルを用いて特徴を生成するだけでなく,特徴を識別的に分離する。
論文 参考訳(メタデータ) (2020-10-19T12:36:11Z) - Zero-Shot Stance Detection: A Dataset and Model using Generalized Topic
Representations [13.153001795077227]
従来のデータセットよりも広い範囲のトピックや語彙の変化をキャプチャするゼロショットスタンス検出のための新しいデータセットを提案する。
また、一般化されたトピック表現を用いてトピック間の関係を暗黙的にキャプチャするスタンス検出の新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-10-07T20:27:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。