論文の概要: Linguistic-style-aware Neural Networks for Fake News Detection
- arxiv url: http://arxiv.org/abs/2301.02792v1
- Date: Sat, 7 Jan 2023 06:48:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-10 15:38:38.163250
- Title: Linguistic-style-aware Neural Networks for Fake News Detection
- Title(参考訳): 偽ニュース検出のための言語型アウェアニューラルネットワーク
- Authors: Xinyi Zhou, Jiayu Li, Qinzhou Li, Reza Zafarani
- Abstract要約: まず、ニュース文書の階層的言語木を生成する。
これにより、各ニュース文書の言語スタイルを著者の言葉使用に翻訳する。
階層型言語木をニューラルネットワークに統合することにより,ニュース文書の表現を学習し,分類する。
- 参考スコア(独自算出の注目度): 8.694950989272845
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose the hierarchical recursive neural network (HERO) to predict fake
news by learning its linguistic style, which is distinguishable from the truth,
as psychological theories reveal. We first generate the hierarchical linguistic
tree of news documents; by doing so, we translate each news document's
linguistic style into its writer's usage of words and how these words are
recursively structured as phrases, sentences, paragraphs, and, ultimately, the
document. By integrating the hierarchical linguistic tree with the neural
network, the proposed method learns and classifies the representation of news
documents by capturing their locally sequential and globally recursive
structures that are linguistically meaningful. It is the first work offering
the hierarchical linguistic tree and the neural network preserving the tree
information to our best knowledge. Experimental results based on public
real-world datasets demonstrate the proposed method's effectiveness, which can
outperform state-of-the-art techniques in classifying short and long news
documents. We also examine the differential linguistic style of fake news and
the truth and observe some patterns of fake news. The code and data have been
publicly available.
- Abstract(参考訳): 本稿では, 心理学的理論が示すように, 事実と区別可能な言語スタイルを学習し, 偽ニュースを予測するための階層的再帰ニューラルネットワーク(HERO)を提案する。
まず、ニュース文書の階層的言語木を作成し、それによって、各ニュース文書の言語スタイルを著者の単語の使用法に翻訳し、これらの単語を句、文、段落、そして最終的にその文書として再帰的に構成する。
階層的言語木をニューラルネットワークと統合することにより,言語的に有意な局所的かつグローバルな再帰的構造を捉えることにより,ニュース文書の表現を学習し,分類する。
これは、階層的言語木と、最良の知識にツリー情報を保存したニューラルネットワークを提供する最初の作品である。
パブリック・リアル・ワールド・データセットに基づく実験結果は、短いニュース文書と長いニュース文書の分類において最先端の技術に勝る提案手法の有効性を実証する。
また,偽ニュースと真理の差異を言語学的に検討し,偽ニュースのパターンを観察した。
コードとデータは公開されています。
関連論文リスト
- Training Neural Networks as Recognizers of Formal Languages [87.06906286950438]
形式言語理論は、特に認識者に関するものである。
代わりに、非公式な意味でのみ類似したプロキシタスクを使用するのが一般的である。
ニューラルネットワークを文字列のバイナリ分類器として直接訓練し評価することで、このミスマッチを補正する。
論文 参考訳(メタデータ) (2024-11-11T16:33:25Z) - A Multi-Grained Self-Interpretable Symbolic-Neural Model For
Single/Multi-Labeled Text Classification [29.075766631810595]
本稿では,テキストのクラスラベルを選挙区木から明示的に予測するシンボリック・ニューラルモデルを提案する。
構造化言語モデルが自己教師型で選挙区木を予測することを学ぶと、訓練データとして、原文と文レベルのラベルしか必要としない。
実験により,下流タスクにおける予測精度が向上できることが実証された。
論文 参考訳(メタデータ) (2023-03-06T03:25:43Z) - TeKo: Text-Rich Graph Neural Networks with External Knowledge [75.91477450060808]
外部知識を用いた新しいテキストリッチグラフニューラルネットワーク(TeKo)を提案する。
まず、高品質なエンティティを組み込んだフレキシブルな異種セマンティックネットワークを提案する。
次に、構造化三重項と非構造化実体記述という2種類の外部知識を導入する。
論文 参考訳(メタデータ) (2022-06-15T02:33:10Z) - Incorporating Constituent Syntax for Coreference Resolution [50.71868417008133]
本稿では,構成構文構造をグラフベースで組み込む手法を提案する。
また、高次近傍情報を利用して構成木に富んだ構造をエンコードすることも検討する。
on the English and Chinese parts of OntoNotes 5.0 benchmark shows that our proposed model beats a strong baseline or a new-of-the-art performance。
論文 参考訳(メタデータ) (2022-02-22T07:40:42Z) - Computing Class Hierarchies from Classifiers [12.631679928202516]
ニューラルネットワークからクラス階層を自動的に取得する新しいアルゴリズムを提案する。
我々のアルゴリズムは、よく知られたディープニューラルネットワークモデルに驚くほど優れた階層を生成する。
論文 参考訳(メタデータ) (2021-12-02T13:01:04Z) - Low-Dimensional Structure in the Space of Language Representations is
Reflected in Brain Responses [62.197912623223964]
言語モデルと翻訳モデルは,単語の埋め込み,構文的・意味的タスク,将来的な単語埋め込みとの間を円滑に介在する低次元構造を示す。
この表現埋め込みは、各特徴空間が、fMRIを用いて記録された自然言語刺激に対する人間の脳反応にどれだけうまく対応しているかを予測することができる。
これは、埋め込みが脳の自然言語表現構造の一部を捉えていることを示唆している。
論文 参考訳(メタデータ) (2021-06-09T22:59:12Z) - Unsupervised Learning of Explainable Parse Trees for Improved
Generalisation [15.576061447736057]
より有意義で説明しやすい解析木構造を学ぶために、Tree-LSTMよりも注意メカニズムを提案します。
また,提案モデルの自然言語推論,意味的関連性,感情分析タスクにおける優れた性能を示す。
論文 参考訳(メタデータ) (2021-04-11T12:10:03Z) - Exploiting Syntactic Structure for Better Language Modeling: A Syntactic
Distance Approach [78.77265671634454]
我々はマルチタスクの目的、すなわち、モデルが単語を同時に予測し、また「シンタクティック距離」と呼ばれる形態で真実解析木を解析する。
Penn Treebank と Chinese Treebank のデータセットによる実験結果から,地上の真理解析木を追加の訓練信号として提供すると,そのモデルはより低いパープレキシティを実現し,より良い品質で木を誘導できることが示された。
論文 参考訳(メタデータ) (2020-05-12T15:35:00Z) - A Multi-Perspective Architecture for Semantic Code Search [58.73778219645548]
テキストマッチングのための新しい多言語間ニューラルネットワークを提案する。
CoNaLaデータセットを用いた実験により,提案したモデルでは,従来の手法よりも優れた性能が得られることが示された。
論文 参考訳(メタデータ) (2020-05-06T04:46:11Z) - Every Document Owns Its Structure: Inductive Text Classification via
Graph Neural Networks [22.91359631452695]
グラフニューラルネットワーク(GNN)を用いたインダクティブテキスト分類のためのテクスティングを提案する。
まず、各文書の個々のグラフを作成し、次にGNNを用いて局所構造に基づいて粒度の細かい単語表現を学習する。
本手法は,最先端のテキスト分類法より優れている。
論文 参考訳(メタデータ) (2020-04-22T07:23:47Z) - Fake News Detection on News-Oriented Heterogeneous Information Networks
through Hierarchical Graph Attention [12.250335118888891]
階層型グラフ注意ネットワーク(HGAT)という,新たなフェイクニュース検出フレームワークを提案する。
HGATは、新しい階層的な注意機構を使用して、HINでノード表現学習を行い、ニュース記事ノードを分類することでフェイクニュースを検出する。
2つの実世界のフェイクニュースデータセットの実験は、HGATがテキストベースのモデルや他のネットワークベースのモデルより優れていることを示している。
論文 参考訳(メタデータ) (2020-02-05T19:09:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。