論文の概要: Leveraging Declarative Knowledge in Text and First-Order Logic for
Fine-Grained Propaganda Detection
- arxiv url: http://arxiv.org/abs/2004.14201v2
- Date: Mon, 5 Oct 2020 13:08:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-08 13:00:02.014299
- Title: Leveraging Declarative Knowledge in Text and First-Order Logic for
Fine-Grained Propaganda Detection
- Title(参考訳): テキストにおける宣言的知識と一階述語論理の活用によるプロパガンダ検出
- Authors: Ruize Wang, Duyu Tang, Nan Duan, Wanjun Zhong, Zhongyu Wei, Xuanjing
Huang, Daxin Jiang, Ming Zhou
- Abstract要約: 本稿では,ニュース記事中のプロパガンダ的テキスト断片の検出について検討する。
本稿では,詳細なプロパガンダ手法の宣言的知識を注入する手法を提案する。
- 参考スコア(独自算出の注目度): 139.3415751957195
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study the detection of propagandistic text fragments in news articles.
Instead of merely learning from input-output datapoints in training data, we
introduce an approach to inject declarative knowledge of fine-grained
propaganda techniques. Specifically, we leverage the declarative knowledge
expressed in both first-order logic and natural language. The former refers to
the logical consistency between coarse- and fine-grained predictions, which is
used to regularize the training process with propositional Boolean expressions.
The latter refers to the literal definition of each propaganda technique, which
is utilized to get class representations for regularizing the model parameters.
We conduct experiments on Propaganda Techniques Corpus, a large manually
annotated dataset for fine-grained propaganda detection. Experiments show that
our method achieves superior performance, demonstrating that leveraging
declarative knowledge can help the model to make more accurate predictions.
- Abstract(参考訳): 本稿では,ニュース記事中のプロパガンダ的テキスト断片の検出について検討する。
トレーニングデータの入力出力データポイントから学習する代わりに、粒度の細かいプロパガンダ技術の宣言的知識を注入する手法を提案する。
具体的には、一階述語論理と自然言語の両方で表される宣言的知識を活用する。
前者は粗い予測ときめ細かい予測の間の論理的整合性を指し、これは命題のブール表現でトレーニングプロセスを規則化するために使われる。
後者は各プロパガンダ手法のリテラル定義を指し、モデルパラメータを正規化するためのクラス表現を得るために使用される。
精密なプロパガンダ検出のための手動注釈付きデータセットであるPropaganda Techniques Corpusについて実験を行った。
実験により,宣言的知識の活用によってモデルがより正確な予測を行うのに役立つことを示す。
関連論文リスト
- Textual Entailment for Effective Triple Validation in Object Prediction [4.94309218465563]
本稿では,クローズ文を用いて言語モデルから抽出した事実の検証にテキスト・エンテーメントを用いることを提案する。
本研究の結果から,テキスト・エンテーメントに基づく三重検証により,異なる学習体制における言語モデル予測が向上することが示唆された。
論文 参考訳(メタデータ) (2024-01-29T16:50:56Z) - Discourse Structures Guided Fine-grained Propaganda Identification [21.680194418287197]
我々は政治ニュースにおけるプロパガンダを、文レベルとトークンレベルという2つのきめ細かいレベルで識別することを目指している。
本稿では,プロパガンダ発見のための局所的・グローバルな談話構造の導入を提案する。
論文 参考訳(メタデータ) (2023-10-28T00:18:19Z) - Rationalizing Predictions by Adversarial Information Calibration [65.19407304154177]
我々は2つのモデルを共同で訓練する: 1つは、正確だがブラックボックスな方法でタスクを解く典型的なニューラルモデルであり、もう1つは、予測の理論的根拠を付加するセレクタ・予測モデルである。
我々は,2つのモデルから抽出した情報を,それらの違いが欠落した特徴や過度に選択された特徴の指標であるように校正するために,敵対的手法を用いる。
論文 参考訳(メタデータ) (2023-01-15T03:13:09Z) - Supporting Vision-Language Model Inference with Confounder-pruning Knowledge Prompt [71.77504700496004]
視覚言語モデルは、オープンセットの視覚概念を扱うために、画像とテキストのペアを共通の空間に整列させることで事前訓練される。
事前訓練されたモデルの転送可能性を高めるため、最近の研究では、固定または学習可能なプロンプトが採用されている。
しかし、どのようにして、どのプロンプトが推論性能を改善するのかは、まだ不明である。
論文 参考訳(メタデータ) (2022-05-23T07:51:15Z) - Faking Fake News for Real Fake News Detection: Propaganda-loaded
Training Data Generation [105.20743048379387]
提案手法は,人間によるプロパガンダのスタイルや戦略から情報を得た学習例を生成するための新しいフレームワークである。
具体的には、生成した記事の有効性を確保するために、自然言語推論によって導かれる自己臨界シーケンストレーニングを行う。
実験の結果、PropaNewsでトレーニングされた偽ニュース検知器は、2つの公開データセットで3.62~7.69%のF1スコアで人書きの偽情報を検出するのに優れていることがわかった。
論文 参考訳(メタデータ) (2022-03-10T14:24:19Z) - Factual Probing Is [MASK]: Learning vs. Learning to Recall [8.668111159444273]
ペトロニなど。
予め訓練された言語モデルから世界事実をクローゼスタイルのプロンプトとして表現することで取得可能であることを実証した。
これらの事実探索技術をよりよく理解するための2つの補完的な貢献をしている。
やや意外なことに、これらの方法が使用するトレーニングデータには、基礎となる事実分布の一定の正規性が含まれている。
論文 参考訳(メタデータ) (2021-04-12T07:11:40Z) - Cross-Domain Learning for Classifying Propaganda in Online Contents [67.10699378370752]
本稿では,ラベル付き文書や,ニュースやつぶやきからの文をベースとしたクロスドメイン学習の手法を提案する。
本実験は,本手法の有効性を実証し,移動過程におけるソースやターゲットの様々な構成における困難さと限界を同定する。
論文 参考訳(メタデータ) (2020-11-13T10:19:13Z) - Commonsense Evidence Generation and Injection in Reading Comprehension [57.31927095547153]
本稿では,CEGI と命名された理解を読み取るためのコモンセンス・エビデンス・ジェネレーション・インジェクション・フレームワークを提案する。
この枠組みは、2種類の補助的コモンセンス証拠を包括的読解に注入し、機械に合理的思考能力を持たせる。
CosmosQAデータセットの実験では、提案されたCEGIモデルが現在の最先端アプローチよりも優れていることが示された。
論文 参考訳(メタデータ) (2020-05-11T16:31:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。