論文の概要: Hierarchical Multi-Instance Multi-Label Learning for Detecting
Propaganda Techniques
- arxiv url: http://arxiv.org/abs/2305.19419v1
- Date: Tue, 30 May 2023 21:23:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-01 19:25:37.833391
- Title: Hierarchical Multi-Instance Multi-Label Learning for Detecting
Propaganda Techniques
- Title(参考訳): プロパガンダ技術検出のための階層型マルチインスタンスマルチラベル学習
- Authors: Anni Chen and Bhuwan Dhingra
- Abstract要約: 本稿では,記事中の全スパンを同時に分類するシンプルなRoBERTaモデルを提案する。
決定木の各ノードに補助的な分類子を追加することで階層的なラベル依存を組み込む。
我々のモデルは、クロスバリデーション設定で共有タスク勝利チームからモデルに対して2.47%のマイクロF1を絶対的に改善します。
- 参考スコア(独自算出の注目度): 12.483639681339767
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Since the introduction of the SemEval 2020 Task 11 (Martino et al., 2020a),
several approaches have been proposed in the literature for classifying
propaganda based on the rhetorical techniques used to influence readers. These
methods, however, classify one span at a time, ignoring dependencies from the
labels of other spans within the same context. In this paper, we approach
propaganda technique classification as a Multi-Instance Multi-Label (MIML)
learning problem (Zhou et al., 2012) and propose a simple RoBERTa-based model
(Zhuang et al., 2021) for classifying all spans in an article simultaneously.
Further, we note that, due to the annotation process where annotators
classified the spans by following a decision tree, there is an inherent
hierarchical relationship among the different techniques, which existing
approaches ignore. We incorporate these hierarchical label dependencies by
adding an auxiliary classifier for each node in the decision tree to the
training objective and ensembling the predictions from the original and
auxiliary classifiers at test time. Overall, our model leads to an absolute
improvement of 2.47% micro-F1 over the model from the shared task winning team
in a cross-validation setup and is the best performing non-ensemble model on
the shared task leaderboard.
- Abstract(参考訳): SemEval 2020 Task 11(Martino et al., 2020a)の導入以来、読者に影響を与えるための修辞的手法に基づいてプロパガンダを分類する文献においていくつかのアプローチが提案されている。
しかし、これらのメソッドは一度に1つのスパンを分類し、同じコンテキスト内で他のスパンのラベルからの依存関係を無視します。
本稿では,Multi-Instance Multi-Label(MIML)学習問題(Zhou et al., 2012)としてプロパガンダ手法の分類にアプローチし,記事中の全スパンを同時に分類するためのシンプルなRoBERTaモデル(Zhuang et al., 2021)を提案する。
さらに,アノテータが決定木に従うことによってスパンを分類するアノテーションプロセスのため,既存のアプローチが無視する異なる手法の間に固有の階層的関係が存在することに注意する。
これらの階層的ラベル依存性を,学習目標に決定木の各ノードに対する補助的分類器を追加し,テスト時に元の分類器と補助的分類器から予測をセンスすることで組み込む。
全体として、私たちのモデルは、クロスバリデーションのセットアップで、共有タスク勝利チームからモデルに対して2.47%のマイクロF1を絶対的に改善します。
関連論文リスト
- Enhancing Visual Continual Learning with Language-Guided Supervision [76.38481740848434]
継続的な学習は、モデルが以前獲得した知識を忘れずに新しいタスクを学習できるようにすることを目的としている。
ワンホットラベルが伝達する少ない意味情報は,タスク間の効果的な知識伝達を妨げている,と我々は主張する。
具体的には, PLM を用いて各クラスのセマンティックターゲットを生成し, 凍結し, 監視信号として機能する。
論文 参考訳(メタデータ) (2024-03-24T12:41:58Z) - IntenDD: A Unified Contrastive Learning Approach for Intent Detection
and Discovery [12.905097743551774]
バックボーンを符号化する共有発話を利用した統一手法であるIntenDDを提案する。
IntenDDは完全に教師なしのコントラスト学習戦略を用いて表現学習を行う。
当社のアプローチは,3つのタスクのすべてにおいて,競争上のベースラインを一貫して上回ります。
論文 参考訳(メタデータ) (2023-10-25T16:50:24Z) - Multi-Label Knowledge Distillation [86.03990467785312]
本稿では,新しい多ラベル知識蒸留法を提案する。
一方、マルチラベル学習問題をバイナリ分類問題に分割することにより、ロジットからの情報的意味知識を利用する。
一方,ラベルワイド埋め込みの構造情報を活用することにより,学習した特徴表現の識別性を向上する。
論文 参考訳(メタデータ) (2023-08-12T03:19:08Z) - SpanProto: A Two-stage Span-based Prototypical Network for Few-shot
Named Entity Recognition [45.012327072558975]
名前付きエンティティ認識(NER)は、アノテーション付きデータが少ない名前付きエンティティを識別することを目的としている。
そこで本研究では,2段階のアプローチを用いて,数発のNERに対処するセミナルスパンベースプロトタイプネットワーク(SpanProto)を提案する。
スパン抽出の段階では、逐次タグを大域境界行列に変換し、モデルが明示的な境界情報に集中できるようにする。
分類に言及するために、原型学習を活用してラベル付きスパンのセマンティック表現をキャプチャし、新しいクラスエンティティへの適応性を向上する。
論文 参考訳(メタデータ) (2022-10-17T12:59:33Z) - Evolving Multi-Label Fuzzy Classifier [5.53329677986653]
マルチラベル分類は、同時に複数のクラスに1つのサンプルを割り当てるという問題に対処するために、機械学習コミュニティで多くの注目を集めている。
本稿では,新たなマルチラベルサンプルをインクリメンタルかつシングルパスで自己適応・自己展開可能な多ラベルファジィ分類器(EFC-ML)を提案する。
論文 参考訳(メタデータ) (2022-03-29T08:01:03Z) - A Similarity-based Framework for Classification Task [21.182406977328267]
類似性に基づく手法は,複数ラベル学習のための新しい手法のクラスを生み出し,有望な性能を達成する。
類似性に基づく学習と一般化された線形モデルを組み合わせて、両方の世界のベストを達成します。
論文 参考訳(メタデータ) (2022-03-05T06:39:50Z) - Self-Training: A Survey [5.772546394254112]
半教師付きアルゴリズムは、ラベル付き観測の小さなセットとラベルなし観測の大きなセットから予測関数を学習することを目的としている。
近年,自己学習手法が注目されていることは確かである。
本稿では,バイナリクラスとマルチクラス分類のための自己学習手法と,その変種と関連する2つのアプローチを提案する。
論文 参考訳(メタデータ) (2022-02-24T11:40:44Z) - Contextualizing Meta-Learning via Learning to Decompose [125.76658595408607]
本稿では,メタ学習型サポート・ツー・ターゲット戦略の文脈化を図るために,ネットワーク(LeadNet)を分解する学習を提案する。
LeadNetは、コンテキスト間の比較をポリセムの埋め込みに組み込むことで、右に関連付けられた戦略を自動的に選択することを学ぶ。
論文 参考訳(メタデータ) (2021-06-15T13:10:56Z) - LTIatCMU at SemEval-2020 Task 11: Incorporating Multi-Level Features for
Multi-Granular Propaganda Span Identification [70.1903083747775]
本稿では,新聞記事におけるプロパガンダ・スパン識別の課題について述べる。
本稿では,BERT-BiLSTMに基づくプロパガンダ分類モデルを提案する。
論文 参考訳(メタデータ) (2020-08-11T16:14:47Z) - Federated Learning with Only Positive Labels [71.63836379169315]
FedAwS(Federated Averaging with Spreadout)という,正のラベルのみを用いたトレーニングのための汎用フレームワークを提案する。
理論的にも経験的にも、FedAwSは、ユーザが負のラベルにアクセス可能な従来の学習のパフォーマンスとほぼ一致していることを示す。
論文 参考訳(メタデータ) (2020-04-21T23:35:02Z) - A Sample Selection Approach for Universal Domain Adaptation [94.80212602202518]
普遍シナリオにおける教師なし領域適応の問題について検討する。
ソースドメインとターゲットドメインの間で共有されるクラスは、一部のみである。
共有クラスのサンプルの同定に有効なスコアリング方式を提案する。
論文 参考訳(メタデータ) (2020-01-14T22:28:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。