論文の概要: Few-shot Learning for Cross-Target Stance Detection by Aggregating
Multimodal Embeddings
- arxiv url: http://arxiv.org/abs/2301.04535v1
- Date: Wed, 11 Jan 2023 15:52:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-12 17:10:35.678737
- Title: Few-shot Learning for Cross-Target Stance Detection by Aggregating
Multimodal Embeddings
- Title(参考訳): マルチモーダル埋め込みによるクロスターゲットスタンス検出のためのFew-shot Learning
- Authors: Parisa Jamadi Khiabani, Arkaitz Zubiaga
- Abstract要約: テキストとネットワークの両方の特徴からマルチモーダルな埋め込みを集約する新しいモデルであるCT-TNを導入する。
本研究は,ソース・デスティネーション・ターゲット・ペアの6つの異なる組み合わせについて,数ショットのクロスターゲット・シナリオで実験を行う。
異なる数のショットで実験したところ、CT-TNは目的地の300のインスタンスを見た後、他のモデルよりも優れていた。
- 参考スコア(独自算出の注目度): 16.39344929765961
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite the increasing popularity of the stance detection task, existing
approaches are predominantly limited to using the textual content of social
media posts for the classification, overlooking the social nature of the task.
The stance detection task becomes particularly challenging in cross-target
classification scenarios, where even in few-shot training settings the model
needs to predict the stance towards new targets for which the model has only
seen few relevant samples during training. To address the cross-target stance
detection in social media by leveraging the social nature of the task, we
introduce CT-TN, a novel model that aggregates multimodal embeddings derived
from both textual and network features of the data. We conduct experiments in a
few-shot cross-target scenario on six different combinations of
source-destination target pairs. By comparing CT-TN with state-of-the-art
cross-target stance detection models, we demonstrate the effectiveness of our
model by achieving average performance improvements ranging from 11% to 21%
across different baseline models. Experiments with different numbers of shots
show that CT-TN can outperform other models after seeing 300 instances of the
destination target. Further, ablation experiments demonstrate the positive
contribution of each of the components of CT-TN towards the final performance.
We further analyse the network interactions between social media users, which
reveal the potential of using social features for cross-target stance
detection.
- Abstract(参考訳): スタンス検出タスクの人気が高まっているにもかかわらず、既存のアプローチは、主にソーシャルメディア投稿のテキストコンテンツを使って分類することに限られており、そのタスクの社会的性質を見越している。
姿勢検出タスクは,少数のトレーニング設定であっても,モデルがトレーニング中に少数の関連するサンプルしか見ていない新たなターゲットに対する姿勢を予測する必要がある,クロスターゲット分類シナリオでは特に困難になる。
課題の社会的性質を活用してソーシャルメディアにおける多目的姿勢検出に対処するため,テキストとネットワークの両方の特徴から得られたマルチモーダルな埋め込みを集約する新しいモデルであるCT-TNを導入する。
我々は, 複数ショットのクロスターゲットシナリオにおいて, 6種類のターゲット対の異なる組み合わせについて実験を行う。
ct-tnと最先端のクロスターゲット・スタンス検出モデルを比較し,ベースラインモデルで11%から21%の平均性能改善を達成し,本モデルの有効性を実証する。
異なる数のショットで実験したところ、CT-TNは目的地の300のインスタンスを見た後、他のモデルよりも優れていた。
さらに, アブレーション実験では, CT-TNの各成分が最終性能に対して正の寄与を示す。
さらに,ソーシャルメディアユーザ間のネットワークインタラクションを解析し,ターゲット間のスタンス検出にソーシャル機能を利用する可能性を明らかにする。
関連論文リスト
- Cross-Target Stance Detection: A Survey of Techniques, Datasets, and Challenges [7.242609314791262]
クロスターゲットスタンス検出(クロスターゲットスタンス検出)は、テキストで表現された視点を所定のターゲットに向けて決定するタスクである。
オンラインの視点や意見の分析やマイニングの必要性が高まる中、このタスクは近年大きな関心を集めている。
本総説では,過去10年間の目標間姿勢検出の進歩について検討する。
論文 参考訳(メタデータ) (2024-09-20T15:49:14Z) - Investigating the Robustness of Modelling Decisions for Few-Shot Cross-Topic Stance Detection: A Preregistered Study [3.9394231697721023]
本稿では,数発の姿勢検出のための動作選択の堅牢性について検討する。
我々は、スタンスタスク定義(Pro/ConとSide Side Stance)と、2つのLLMアーキテクチャ(ビエンコーディングとクロスエンコーディング)を比較し、自然言語推論の知識を追加します。
初期の研究から得られた仮説や主張のいくつかは確認できますが、もっと矛盾した結果をもたらすものもあります。
論文 参考訳(メタデータ) (2024-04-05T09:48:00Z) - MTP: Advancing Remote Sensing Foundation Model via Multi-Task Pretraining [73.81862342673894]
ファンデーションモデルは、様々な画像解釈タスクを強化することで、リモートセンシング(RS)のランドスケープを再構築した。
事前訓練されたモデルを下流のタスクに転送することは、イメージ分類やオブジェクト識別タスクとして事前訓練の定式化によるタスクの相違に遭遇する可能性がある。
SAMRSデータセット上で、セマンティックセグメンテーション、インスタンスセグメンテーション、回転オブジェクト検出を含むマルチタスクによる事前トレーニングを行う。
我々のモデルは、シーン分類、水平・回転物体検出、セマンティックセグメンテーション、変化検出など、様々なRS下流タスクに基づいて微調整される。
論文 参考訳(メタデータ) (2024-03-20T09:17:22Z) - Domain-adaptive Person Re-identification without Cross-camera Paired
Samples [12.041823465553875]
長距離シーンから収集されたクロスカメラ歩行者のサンプルには、ポジティブなサンプルがないことが多い。
クロスカメラの負のサンプルを用いて、地域間歩行者の同一性マッチングを実現することは極めて困難である。
クロスカメラ一貫した識別特徴学習に焦点を当てた新しいドメイン適応型人物認識手法を提案する。
論文 参考訳(メタデータ) (2023-07-13T02:42:28Z) - Unified Visual Relationship Detection with Vision and Language Models [89.77838890788638]
この研究は、複数のデータセットからラベル空間の結合を予測する単一の視覚的関係検出器のトレーニングに焦点を当てている。
視覚と言語モデルを活用した統合視覚関係検出のための新しいボトムアップ手法UniVRDを提案する。
人物体間相互作用検出とシーングラフ生成の双方による実験結果から,本モデルの競合性能が示された。
論文 参考訳(メタデータ) (2023-03-16T00:06:28Z) - Instance-Level Relative Saliency Ranking with Graph Reasoning [126.09138829920627]
そこで本研究では,有意な事例を分割し,相対的有意な有意なランク順序を推定するための統一モデルを提案する。
また、サラレンシーランキングブランチを効果的にトレーニングするために、新しい損失関数も提案されている。
実験の結果,提案手法は従来の手法よりも有効であることがわかった。
論文 参考訳(メタデータ) (2021-07-08T13:10:42Z) - CDN-MEDAL: Two-stage Density and Difference Approximation Framework for
Motion Analysis [3.337126420148156]
本稿では,2つの畳み込みニューラルネットワークを用いた2段階変化検出手法を提案する。
筆者らの2段階フレームワークは, 約3.5Kのパラメータを含むが, 複雑な動きパターンに対する迅速な収束は維持されている。
論文 参考訳(メタデータ) (2021-06-07T16:39:42Z) - TRiPOD: Human Trajectory and Pose Dynamics Forecasting in the Wild [77.59069361196404]
TRiPODは、グラフの注目ネットワークに基づいて身体のダイナミクスを予測する新しい方法です。
実世界の課題を取り入れるために,各フレームで推定された身体関節が可視・視認可能かどうかを示す指標を学習する。
評価の結果,TRiPODは,各軌道に特化して設計され,予測タスクに特化している。
論文 参考訳(メタデータ) (2021-04-08T20:01:00Z) - End-to-End 3D Multi-Object Tracking and Trajectory Forecasting [34.68114553744956]
3次元MOTと軌道予測の統一解を提案する。
グラフニューラルネットを導入して特徴相互作用技術を採用する。
また,予測トラジェクトリの品質と多様性を向上させるために,多様性サンプリング機能を利用する。
論文 参考訳(メタデータ) (2020-08-25T16:54:46Z) - CSI: Novelty Detection via Contrastive Learning on Distributionally
Shifted Instances [77.28192419848901]
コントラストシフトインスタンス (CSI) という,単純かつ効果的な手法を提案する。
従来のコントラスト学習法のように,サンプルを他の例と対比することに加えて,本トレーニング手法では,サンプルを分散シフトによる拡張と対比する。
本実験は, 種々の新規検出シナリオにおける本手法の優位性を実証する。
論文 参考訳(メタデータ) (2020-07-16T08:32:56Z) - One-Shot Object Detection without Fine-Tuning [62.39210447209698]
本稿では,第1ステージのMatching-FCOSネットワークと第2ステージのStructure-Aware Relation Moduleからなる2段階モデルを提案する。
また,検出性能を効果的に向上する新たなトレーニング戦略を提案する。
提案手法は,複数のデータセット上で一貫した最先端のワンショット性能を上回る。
論文 参考訳(メタデータ) (2020-05-08T01:59:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。