論文の概要: Detecting fake news by enhanced text representation with
multi-EDU-structure awareness
- arxiv url: http://arxiv.org/abs/2205.15139v1
- Date: Mon, 30 May 2022 14:32:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-31 14:25:07.465736
- Title: Detecting fake news by enhanced text representation with
multi-EDU-structure awareness
- Title(参考訳): マルチEDU構造認識による拡張テキスト表現による偽ニュースの検出
- Authors: Yuhang Wang and Li Wang and Yanjie Yang and Yilin Zhang
- Abstract要約: 偽ニュース検出のためのテキスト表現を改善するためのマルチEDU構造認識モデルを提案する。
マルチEDU構造認識のために,シーケンスベースEDU表現とグラフベースEDU表現を構築した。
4つのクロスソースフェイクニュースデータセットの実験により、我々のモデルは最先端のテキストベースの手法よりも優れていることが示された。
- 参考スコア(独自算出の注目度): 16.47473788477675
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Since fake news poses a serious threat to society and individuals, numerous
studies have been brought by considering text, propagation and user profiles.
Due to the data collection problem, these methods based on propagation and user
profiles are less applicable in the early stages. A good alternative method is
to detect news based on text as soon as they are released, and a lot of
text-based methods were proposed, which usually utilized words, sentences or
paragraphs as basic units. But, word is a too fine-grained unit to express
coherent information well, sentence or paragraph is too coarse to show specific
information. Which granularity is better and how to utilize it to enhance text
representation for fake news detection are two key problems. In this paper, we
introduce Elementary Discourse Unit (EDU) whose granularity is between word and
sentence, and propose a multi-EDU-structure awareness model to improve text
representation for fake news detection, namely EDU4FD. For the
multi-EDU-structure awareness, we build the sequence-based EDU representations
and the graph-based EDU representations. The former is gotten by modeling the
coherence between consecutive EDUs with TextCNN that reflect the semantic
coherence. For the latter, we first extract rhetorical relations to build the
EDU dependency graph, which can show the global narrative logic and help
deliver the main idea truthfully. Then a Relation Graph Attention Network
(RGAT) is set to get the graph-based EDU representation. Finally, the two EDU
representations are incorporated as the enhanced text representation for fake
news detection, using a gated recursive unit combined with a global attention
mechanism. Experiments on four cross-source fake news datasets show that our
model outperforms the state-of-the-art text-based methods.
- Abstract(参考訳): 偽ニュースは社会や個人に深刻な脅威をもたらすため、テキスト、伝播、ユーザープロファイルを考慮して多くの研究がなされている。
データ収集の問題のため、伝播とユーザプロファイルに基づくこれらの手法は、初期段階では適用できない。
優れた代替方法は、テキストがリリースされるとすぐにニュースを検出することであり、テキストベースの手法が多数提案され、通常、単語、文、段落を基本単位として使用する。
しかし、単語はコヒーレントな情報をうまく表現するにはきめ細かな単位であり、文や段落は、特定の情報を示すには大きすぎる。
どの粒度が良いか、偽ニュース検出のためのテキスト表現を強化する方法が重要な2つの問題である。
本稿では,単語と文間の粒度を規定する小学校談話ユニット(EDU)を導入し,偽ニュース検出のためのテキスト表現,すなわちEDU4FDを改善するための多言語構造認識モデルを提案する。
マルチEDU構造認識のために,シーケンスベースEDU表現とグラフベースEDU表現を構築した。
前者は、連続EDU間のコヒーレンスを、意味的コヒーレンスを反映したTextCNNでモデル化することで得られる。
後者では、まず、EDU依存グラフを構築するための修辞的関係を抽出し、グローバルな物語論理を示し、真に主要なアイデアを提供するのに役立つ。
次にRGAT(Relation Graph Attention Network)を設定してグラフベースのEDU表現を得る。
最後に、2つのEDU表現を、グローバルアテンション機構と組み合わせたゲート再帰単位を用いて、偽ニュース検出のための拡張テキスト表現として組み込む。
4つのクロスソースフェイクニュースデータセットの実験によって、我々のモデルは最先端のテキストベースメソッドよりも優れています。
関連論文リスト
- SNIFFER: Multimodal Large Language Model for Explainable Out-of-Context
Misinformation Detection [18.356648843815627]
アウト・オブ・コンテクスト(OOC)の誤報は、聴衆を誤解させる最も簡単かつ効果的な方法の1つである。
現在の手法は、画像テキストの一貫性を評価することに重点を置いているが、その判断には説得力のある説明が欠けている。
我々は、OOC誤情報検出と説明のために特別に設計された、新しいマルチモーダルな大規模言語モデルであるSNIFFERを紹介する。
論文 参考訳(メタデータ) (2024-03-05T18:04:59Z) - Contrastive Transformer Learning with Proximity Data Generation for
Text-Based Person Search [60.626459715780605]
記述的なテキストクエリーを与えられたテキストベースの人物検索は、画像ギャラリーからベストマッチした人物を検索することを目的としている。
このようなクロスモーダル検索タスクは、重要なモダリティギャップ、きめ細かい相違、注釈付きデータの不十分さのため、かなり難しい。
本稿では,テキストに基づく人物検索のための2つのトランスフォーマーモデルを提案する。
論文 参考訳(メタデータ) (2023-11-15T16:26:49Z) - Cross-modality Data Augmentation for End-to-End Sign Language Translation [66.46877279084083]
エンドツーエンド手話翻訳(SLT)は、手話動画を中間表現なしで直接音声言語テキストに変換することを目的としている。
署名ビデオとテキスト間のモダリティのギャップとラベル付きデータの不足のため、これは難しい課題だった。
本稿では,強力な光沢からテキストへの翻訳機能をエンドツーエンドの手話翻訳に変換するための,新しいクロスモダリティデータ拡張(XmDA)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-18T16:34:18Z) - SUR-adapter: Enhancing Text-to-Image Pre-trained Diffusion Models with
Large Language Models [56.88192537044364]
本研究では,事前学習拡散モデルに対するセマンティック・アダプタ (SUR-adapter) と呼ばれる簡易なパラメータ効率の良い微調整手法を提案する。
ユーザエクスペリエンスの向上により,テキストから画像への拡散モデルの使いやすさが向上する。
論文 参考訳(メタデータ) (2023-05-09T05:48:38Z) - SpaText: Spatio-Textual Representation for Controllable Image Generation [61.89548017729586]
SpaTextはオープン語彙シーン制御を用いたテキスト・ツー・イメージ生成の新しい手法である。
シーン全体を記述したグローバルテキストプロンプトに加えて、ユーザはセグメンテーションマップを提供する。
現状拡散モデルである画素ベースと潜在条件ベースでの有効性を示す。
論文 参考訳(メタデータ) (2022-11-25T18:59:10Z) - Contrastive Graph Multimodal Model for Text Classification in Videos [9.218562155255233]
我々は、マルチモーダル情報を融合させることで、ビデオテキスト分類の新しい課題に最初に対処する。
レイアウト情報を明示的に抽出することで特徴表現を強化するために、相関ネットと呼ばれる特定のモジュールを調整します。
我々は、ビデオテキスト認識および分類アプリケーションの構築と評価を目的とした、TI-Newsと呼ばれるニュースドメインから、明確に定義された新しい産業データセットを構築した。
論文 参考訳(メタデータ) (2022-06-06T04:06:21Z) - Dependency Induction Through the Lens of Visual Perception [81.91502968815746]
本稿では,単語の具体性を利用した教師なし文法帰納モデルと,構成的視覚に基づく構成的文法を共同学習する手法を提案する。
実験により,提案した拡張は,文法的サイズが小さい場合でも,現在最先端の視覚的接地モデルよりも優れた性能を示すことが示された。
論文 参考訳(メタデータ) (2021-09-20T18:40:37Z) - Multiplex Graph Neural Network for Extractive Text Summarization [34.185093491514394]
抽出テキスト要約は、ある文書から最も代表的な文章を要約として抽出することを目的としている。
文と単語の異なる関係を共同でモデル化する新しい多重グラフ畳み込みネットワーク(Multi-GCN)を提案する。
マルチGCNに基づいて,抽出テキスト要約のための多重グラフ要約(Multi-GraS)モデルを提案する。
論文 参考訳(メタデータ) (2021-08-29T16:11:01Z) - Primitive Representation Learning for Scene Text Recognition [7.818765015637802]
本研究では,シーンテキスト画像の固有表現を活用した原始表現学習手法を提案する。
プリミティブ表現学習ネットワーク(PREN)は、並列デコードに視覚テキスト表現を使用するために構築される。
また,注意に基づく手法における不整合問題を軽減するために PREN2D というフレームワークを提案する。
論文 参考訳(メタデータ) (2021-05-10T11:54:49Z) - Video-aided Unsupervised Grammar Induction [108.53765268059425]
ラベルのないテキストと対応するビデオの両方から構成を学習するビデオ支援文法インダクションについて検討する。
ビデオは、静的オブジェクトだけでなく、動詞句を誘導するのに有用なアクションや状態の変更を含む、さらに豊富な情報を提供します。
マルチモードコンパウンドPCFGモデル(MMC-PCFG)を提案し,これらの豊富な特徴を異なるモダリティから効果的に集約する。
論文 参考訳(メタデータ) (2021-04-09T14:01:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。