論文の概要: Uncertainty-Aware Reward-based Deep Reinforcement Learning for Intent
Analysis of Social Media Information
- arxiv url: http://arxiv.org/abs/2302.10195v1
- Date: Sun, 19 Feb 2023 00:54:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-22 17:33:32.277553
- Title: Uncertainty-Aware Reward-based Deep Reinforcement Learning for Intent
Analysis of Social Media Information
- Title(参考訳): 不確実性認識に基づく深層強化学習によるソーシャルメディア情報の意図分析
- Authors: Zhen Guo, Qi Zhang, Xinwei An, Qisheng Zhang, Audun J{\o}sang, Lance
M. Kaplan, Feng Chen, Dong H. Jeong, Jin-Hee Cho
- Abstract要約: フェイクニュースのスプレッドラーのタイプを、その意図に基づいて取り除くことが重要だ。
フェイクニュースの正しい意図を最もよく識別できる意図分類フレームワークを提案する。
- 参考スコア(独自算出の注目度): 17.25399815431264
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Due to various and serious adverse impacts of spreading fake news, it is
often known that only people with malicious intent would propagate fake news.
However, it is not necessarily true based on social science studies.
Distinguishing the types of fake news spreaders based on their intent is
critical because it will effectively guide how to intervene to mitigate the
spread of fake news with different approaches. To this end, we propose an
intent classification framework that can best identify the correct intent of
fake news. We will leverage deep reinforcement learning (DRL) that can optimize
the structural representation of each tweet by removing noisy words from the
input sequence when appending an actor to the long short-term memory (LSTM)
intent classifier. Policy gradient DRL model (e.g., REINFORCE) can lead the
actor to a higher delayed reward. We also devise a new uncertainty-aware
immediate reward using a subjective opinion that can explicitly deal with
multidimensional uncertainty for effective decision-making. Via 600K training
episodes from a fake news tweets dataset with an annotated intent class, we
evaluate the performance of uncertainty-aware reward in DRL. Evaluation results
demonstrate that our proposed framework efficiently reduces the number of
selected words to maintain a high 95\% multi-class accuracy.
- Abstract(参考訳): 偽ニュースを広める様々な深刻な悪影響があるため、悪意のある人だけが偽ニュースを広めることはよく知られている。
しかし、必ずしも社会科学的な研究に基づくものではない。
その意図に基づいて偽ニューススプレッダーの種類を区別することは、異なるアプローチによる偽ニュースの拡散を緩和するために効果的に介入する方法を導くために重要である。
そこで本研究では,偽ニュースの適切な意図を識別可能な意図分類フレームワークを提案する。
我々は,長い短期記憶(LSTM)意図分類器にアクターを付加する場合に,入力シーケンスからノイズのある単語を除去することにより,各ツイートの構造表現を最適化するディープ強化学習(DRL)を活用する。
ポリシー勾配DRLモデル(例えばREINFORCE)は、アクターをより高い遅延報酬に導くことができる。
また,効果的な意思決定のために,多次元の不確実性に明示的に対処できる主観的意見を用いて,新たな不確実性認識即時報酬を考案する。
注釈付き意図クラスを持つ偽ニュースツイートデータセットから600Kのトレーニングエピソードを抽出し,DRLにおける不確実性を考慮した報酬の評価を行った。
評価の結果,提案フレームワークは,選択された単語数を効率的に削減し,高い95\%のマルチクラス精度を維持できることが判明した。
関連論文リスト
- A Semi-supervised Fake News Detection using Sentiment Encoding and LSTM with Self-Attention [0.0]
本研究では,感情分析を最先端の事前学習モデルによって獲得する半教師付き自己学習手法を提案する。
学習モデルは半教師付き方式で訓練され、LSTMに自己注意層を組み込む。
我々は,2万件のニュースコンテンツをデータセットにベンチマークし,そのフィードバックとともに,フェイクニュース検出における競合手法と比較して精度,リコール,測定性能が向上したことを示す。
論文 参考訳(メタデータ) (2024-07-27T20:00:10Z) - XAL: EXplainable Active Learning Makes Classifiers Better Low-resource Learners [71.8257151788923]
低リソーステキスト分類のための新しい説明可能なアクティブラーニングフレームワーク(XAL)を提案する。
XALは分類器に対して、推論を正当化し、合理的な説明ができないラベルのないデータを掘り下げることを推奨している。
6つのデータセットの実験では、XALは9つの強いベースラインに対して一貫した改善を達成している。
論文 参考訳(メタデータ) (2023-10-09T08:07:04Z) - Prompt-and-Align: Prompt-Based Social Alignment for Few-Shot Fake News
Detection [50.07850264495737]
プロンプト・アンド・アライン(Prompt-and-Align、P&A)は、数発のフェイクニュース検出のための新しいプロンプトベースのパラダイムである。
我々はP&Aが、数発のフェイクニュース検出性能をかなりのマージンで新たな最先端に設定していることを示す。
論文 参考訳(メタデータ) (2023-09-28T13:19:43Z) - Verifying the Robustness of Automatic Credibility Assessment [50.55687778699995]
入力テキストにおける意味保存的変化がモデルを誤解させる可能性があることを示す。
また、誤情報検出タスクにおける被害者モデルと攻撃方法の両方をテストするベンチマークであるBODEGAについても紹介する。
我々の実験結果によると、現代の大規模言語モデルは、以前のより小さなソリューションよりも攻撃に対して脆弱であることが多い。
論文 参考訳(メタデータ) (2023-03-14T16:11:47Z) - A Multi-Policy Framework for Deep Learning-Based Fake News Detection [0.31498833540989407]
フェイクニュース検出を自動化するフレームワークであるMPSC(Multi-Policy Statement Checker)を導入する。
MPSCは、深層学習技術を用いて、文自体とその関連するニュース記事を分析し、それが信頼できるか疑わしいかを予測する。
論文 参考訳(メタデータ) (2022-06-01T21:25:21Z) - Faking Fake News for Real Fake News Detection: Propaganda-loaded
Training Data Generation [105.20743048379387]
提案手法は,人間によるプロパガンダのスタイルや戦略から情報を得た学習例を生成するための新しいフレームワークである。
具体的には、生成した記事の有効性を確保するために、自然言語推論によって導かれる自己臨界シーケンストレーニングを行う。
実験の結果、PropaNewsでトレーニングされた偽ニュース検知器は、2つの公開データセットで3.62~7.69%のF1スコアで人書きの偽情報を検出するのに優れていることがわかった。
論文 参考訳(メタデータ) (2022-03-10T14:24:19Z) - Explainable Tsetlin Machine framework for fake news detection with
credibility score assessment [16.457778420360537]
本稿では,最近導入されたTsetlin Machine (TM) に基づく,新たな解釈可能な偽ニュース検出フレームワークを提案する。
我々は、TMの接続節を用いて、真偽のニューステキストの語彙的および意味的特性をキャプチャする。
評価のために、PolitiFactとGossipCopという2つの公開データセットで実験を行い、TMフレームワークが以前公開されたベースラインを大幅に上回っていることを示す。
論文 参考訳(メタデータ) (2021-05-19T13:18:02Z) - Supporting verification of news articles with automated search for
semantically similar articles [0.0]
偽ニュースを扱うための証拠検索手法を提案する。
学習課題は教師なし機械学習問題として定式化される。
われわれのアプローチは、コンセプトドリフトとは無関係である。
機械学習タスクはテキスト内の仮説とは独立している。
論文 参考訳(メタデータ) (2021-03-29T12:56:59Z) - Evaluating Deep Learning Approaches for Covid19 Fake News Detection [0.0]
データマイニングの観点から、偽ニュース検出の自動化技術を検討します。
Contraint@AAAI 2021 Covid-19 Fakeニュース検出データセットで異なる教師付きテキスト分類アルゴリズムを評価します。
Covid-19 Fakeニュース検出データセットで98.41%の最高の精度を報告する。
論文 参考訳(メタデータ) (2021-01-11T16:39:03Z) - Discriminative Nearest Neighbor Few-Shot Intent Detection by
Transferring Natural Language Inference [150.07326223077405]
データ不足を緩和するためには、ほとんどショットラーニングが注目を集めている。
深部自己注意を伴う識別的近傍分類を提示する。
自然言語推論モデル(NLI)を変換することで識別能力を高めることを提案する。
論文 参考訳(メタデータ) (2020-10-25T00:39:32Z) - Machine Learning Explanations to Prevent Overtrust in Fake News
Detection [64.46876057393703]
本研究では、ニュースレビュープラットフォームに組み込んだ説明可能なAIアシスタントが、フェイクニュースの拡散と戦う効果について検討する。
我々は、ニュースレビューと共有インターフェースを設計し、ニュース記事のデータセットを作成し、4つの解釈可能なフェイクニュース検出アルゴリズムを訓練する。
説明可能なAIシステムについてより深く理解するために、説明プロセスにおけるユーザエンゲージメント、メンタルモデル、信頼、パフォーマンス対策の相互作用について議論する。
論文 参考訳(メタデータ) (2020-07-24T05:42:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。