論文の概要: ChestyBot: Detecting and Disrupting Chinese Communist Party Influence Stratagems
- arxiv url: http://arxiv.org/abs/2505.10746v1
- Date: Thu, 15 May 2025 23:12:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-19 14:36:13.767222
- Title: ChestyBot: Detecting and Disrupting Chinese Communist Party Influence Stratagems
- Title(参考訳): ChestyBot:中国共産党が戦略に影響を及ぼす原因を発見・破壊
- Authors: Matthew Stoffolano, Ayush Rout, Justin M. Pelletier,
- Abstract要約: ロシアと中国の俳優が行う外国情報活動は、米国の寛容な情報環境を利用する。
既存の検出と緩和戦略は、しばしばリアルタイムにアクティブな情報キャンペーンを特定するのに失敗する。
本稿では,言語モデルであるChestyBotを紹介した。この言語モデルは,ラベル付けされていない外国の悪性ツイートを98.34%の精度で検出する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Foreign information operations conducted by Russian and Chinese actors exploit the United States' permissive information environment. These campaigns threaten democratic institutions and the broader Westphalian model. Yet, existing detection and mitigation strategies often fail to identify active information campaigns in real time. This paper introduces ChestyBot, a pragmatics-based language model that detects unlabeled foreign malign influence tweets with up to 98.34% accuracy. The model supports a novel framework to disrupt foreign influence operations in their formative stages.
- Abstract(参考訳): ロシアと中国の俳優が行う外国情報活動は、米国の寛容な情報環境を利用する。
これらの運動は民主的な制度とより広範なヴェストファーレンのモデルを脅かした。
しかし、既存の検出および緩和戦略は、しばしば、アクティブな情報キャンペーンをリアルタイムで特定することができない。
本稿では, 言語モデルであるChestyBotを紹介し, ラベル付けされていない外国の悪性ツイートを98.34%の精度で検出する。
このモデルは、その形成段階における外国の影響を乱す新しい枠組みをサポートしている。
関連論文リスト
- HatePRISM: Policies, Platforms, and Research Integration. Advancing NLP for Hate Speech Proactive Mitigation [67.69631485036665]
我々は3つの観点からヘイトスピーチ規制と戦略を総合的に検討する。
以上の結果から,ヘイトスピーチ定義や地域ごとのモデレーション慣行に重大な矛盾があることが判明した。
自動ヘイトスピーチモデレーションのための統合フレームワークのさらなる検討のためのアイデアと研究の方向性を提案する。
論文 参考訳(メタデータ) (2025-07-06T11:25:23Z) - Geopolitical biases in LLMs: what are the "good" and the "bad" countries according to contemporary language models [52.00270888041742]
我々は、中立なイベント記述と異なる国からの視点を対比した新しいデータセットを導入する。
以上の結果から,特定の民族的物語のモデルが好まれる,重要な地政学的偏見がみられた。
単純なデバイアスのプロンプトはこれらのバイアスを減らすのに限られた効果があった。
論文 参考訳(メタデータ) (2025-06-07T10:45:17Z) - Propaganda and Information Dissemination in the Russo-Ukrainian War: Natural Language Processing of Russian and Western Twitter Narratives [0.0]
この記事は、戦争の開始時から収集されたプロパガンダアカウントと信頼できるアカウントからのつぶやきの分析を行う。
我々は、自然言語処理と機械学習アルゴリズムを利用して感情を評価し、主要なテーマを特定する。
以上の結果から,情報生成・拡散・ターゲットの仕方において,両面から異なる視点を対象とする異なる戦略が示唆された。
論文 参考訳(メタデータ) (2025-06-02T15:52:04Z) - Pay Attention to the Robustness of Chinese Minority Language Models! Syllable-level Textual Adversarial Attack on Tibetan Script [0.0]
テキストの敵対的攻撃は、中国の少数言語の情報処理における新たな課題である。
我々はTSAttackerと呼ばれるチベット語音節レベルのブラックボックステキスト対逆攻撃を提案する。
実験結果から,TSAttackerは有効であり,高品質な対向サンプルを生成することがわかった。
論文 参考訳(メタデータ) (2024-12-03T09:38:22Z) - Adversarial Style Augmentation via Large Language Model for Robust Fake News Detection [48.545082903061136]
本研究は, 偽ニュース検知器の訓練を目的とした, 対向型拡張AdStyleを提案する。
主要なメカニズムは、LLMを戦略的に利用して、多様で一貫性のあるスタイル変換攻撃プロンプトを自動生成することである。
実験結果から,我々の拡張戦略は,偽ニュースベンチマークデータセットで評価した場合のロバストネスと検出性能を著しく向上させることが示された。
論文 参考訳(メタデータ) (2024-06-17T07:00:41Z) - Charting the Landscape of Nefarious Uses of Generative Artificial Intelligence for Online Election Interference [11.323961700172175]
本稿では,GenAIの悪用を探求し,民主的プロセスの破壊の可能性を明らかにする。
悪質な俳優はこれらの技術を利用して有権者の行動に影響を与え、偽情報を広め、選挙制度に対する大衆の信頼を損なう。
論文 参考訳(メタデータ) (2024-06-04T00:26:12Z) - SA-Attack: Improving Adversarial Transferability of Vision-Language
Pre-training Models via Self-Augmentation [56.622250514119294]
ホワイトボックスの敵攻撃とは対照的に、転送攻撃は現実世界のシナリオをより反映している。
本稿では,SA-Attackと呼ばれる自己拡張型転送攻撃手法を提案する。
論文 参考訳(メタデータ) (2023-12-08T09:08:50Z) - Verifying the Robustness of Automatic Credibility Assessment [50.55687778699995]
入力テキストにおける意味保存的変化がモデルを誤解させる可能性があることを示す。
また、誤情報検出タスクにおける被害者モデルと攻撃方法の両方をテストするベンチマークであるBODEGAについても紹介する。
我々の実験結果によると、現代の大規模言語モデルは、以前のより小さなソリューションよりも攻撃に対して脆弱であることが多い。
論文 参考訳(メタデータ) (2023-03-14T16:11:47Z) - Automated multilingual detection of Pro-Kremlin propaganda in newspapers
and Telegram posts [5.886782001771578]
ロシア連邦とウクライナの大規模な紛争は、前例のない量のニュース記事やソーシャルメディアデータを生み出した。
本研究は、ウクライナ語、ロシア語、ルーマニア語、英語のニュース記事やテレグラムのニュースチャンネルを用いて、戦初月にメディアが世論にどう影響し、どのように反映したかを分析した。
我々はトランスフォーマーと言語特徴に基づく多言語自動プロパガンダ識別の2つの手法を提案し,比較する。
論文 参考訳(メタデータ) (2023-01-25T14:25:37Z) - Countering Malicious Content Moderation Evasion in Online Social
Networks: Simulation and Detection of Word Camouflage [64.78260098263489]
ツイストとカモフラージュキーワードは、プラットフォームコンテンツモデレーションシステムを回避する最もよく使われるテクニックである。
本稿では,コンテンツ回避の新たな手法をシミュレートし,検出する多言語ツールを開発することにより,悪意ある情報に対する対処に大きく貢献する。
論文 参考訳(メタデータ) (2022-12-27T16:08:49Z) - Detecting Propagators of Disinformation on Twitter Using Quantitative
Discursive Analysis [0.0]
本研究では,共振中心分析とクローゼット・ニューマン・ムーアコミュニティ検出を用いて,Twitter上でロシア語の偽情報を識別する手法を提案する。
このデータは、2016年アメリカ合衆国大統領選挙の期間に、既知のロシアの偽情報ボットとTwitterユーザーのコントロールセットの間に、相当な分散的な相違を反映している。
論文 参考訳(メタデータ) (2022-10-11T20:11:50Z) - Faking Fake News for Real Fake News Detection: Propaganda-loaded
Training Data Generation [105.20743048379387]
提案手法は,人間によるプロパガンダのスタイルや戦略から情報を得た学習例を生成するための新しいフレームワークである。
具体的には、生成した記事の有効性を確保するために、自然言語推論によって導かれる自己臨界シーケンストレーニングを行う。
実験の結果、PropaNewsでトレーニングされた偽ニュース検知器は、2つの公開データセットで3.62~7.69%のF1スコアで人書きの偽情報を検出するのに優れていることがわかった。
論文 参考訳(メタデータ) (2022-03-10T14:24:19Z) - Detecting Cross-Modal Inconsistency to Defend Against Neural Fake News [57.9843300852526]
我々は、画像やキャプションを含む機械生成ニュースに対して、より現実的で挑戦的な対策を導入する。
敵が悪用できる可能性のある弱点を特定するために、4つの異なる種類の生成された記事からなるNeuralNewsデータセットを作成します。
ユーザ実験から得られた貴重な知見に加えて,視覚的意味的不整合の検出にもとづく比較的効果的なアプローチを提案する。
論文 参考訳(メタデータ) (2020-09-16T14:13:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。