論文の概要: Applying Word Embeddings to Measure Valence in Information Operations
Targeting Journalists in Brazil
- arxiv url: http://arxiv.org/abs/2201.02257v1
- Date: Thu, 6 Jan 2022 21:52:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-10 22:29:41.073639
- Title: Applying Word Embeddings to Measure Valence in Information Operations
Targeting Journalists in Brazil
- Title(参考訳): ブラジルのジャーナリストを対象とした情報運用におけるバレンス測定への単語埋め込みの適用
- Authors: David A. Broniatowski
- Abstract要約: ロール(Trolls)とは、特定の人物の言葉による虐待を狙った悪質なオンラインアクターである。
ブラジルでは、大統領の同盟国が「ヘイト・キャビネット」を運営しているとして非難されている。
対象とする情報操作が特定のアクターの総合的価値や評価をどう変えるかを評価するための指標を開発することを目的としている。
- 参考スコア(独自算出の注目度): 0.3743859059772078
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Among the goals of information operations are to change the overall
information environment vis-\'a-vis specific actors. For example, "trolling
campaigns" seek to undermine the credibility of specific public figures,
leading others to distrust them and intimidating these figures into silence. To
accomplish these aims, information operations frequently make use of "trolls"
-- malicious online actors who target verbal abuse at these figures. In Brazil,
in particular, allies of Brazil's current president have been accused of
operating a "hate cabinet" -- a trolling operation that targets journalists who
have alleged corruption by this politician and other members of his regime.
Leading approaches to detecting harmful speech, such as Google's Perspective
API, seek to identify specific messages with harmful content. While this
approach is helpful in identifying content to downrank, flag, or remove, it is
known to be brittle, and may miss attempts to introduce more subtle biases into
the discourse. Here, we aim to develop a measure that might be used to assess
how targeted information operations seek to change the overall valence, or
appraisal, of specific actors. Preliminary results suggest known campaigns
target female journalists more so than male journalists, and that these
campaigns may leave detectable traces in overall Twitter discourse.
- Abstract(参考訳): 情報操作の目標は、情報環境 vis-\'a-vis 特定のアクターを変更することである。
例えば「トロール運動」は、特定の公的人物の信用を弱体化させ、他人を不信にさせ、これらの人物を脅かして沈黙させようとする。
これらの目的を達成するため、情報活動では、これらの人物の言葉による虐待を狙う悪意のあるオンラインアクターである「トロール」を頻繁に利用している。ブラジルでは、特にブラジルの現大統領の同盟国が、この政治家や他の政権の汚職を訴えるジャーナリストを狙った「ヘイト・キャビネット」を運営していると非難されている。
GoogleのパースペクティブAPIのような有害なスピーチを検出するための主要なアプローチは、有害なコンテンツで特定のメッセージを特定することである。
このアプローチはコンテンツをダウンランク、フラグ、削除するのに役立つが、脆いことが知られており、会話により微妙なバイアスを導入する試みを見逃す可能性がある。
ここでは,対象とする情報操作が,特定の俳優の総合的価値や評価をいかに変えようとするかを評価するための尺度を開発することを目的とする。
予備結果は、既知のキャンペーンが男性ジャーナリストよりも女性ジャーナリストをターゲットにしていることを示唆している。
関連論文リスト
- Coordinated Reply Attacks in Influence Operations: Characterization and Detection [43.98568073610101]
我々はTwitter上でのインフルエンス操作の文脈において、協調応答攻撃を特徴付ける。
我々の分析によると、これらの攻撃の主なターゲットは、ジャーナリスト、ニュースメディア、州役人、政治家などの影響力のある人々である。
本稿では,2つの教師付き機械学習モデルを提案する。ひとつはツイートを分類し,それらが応答攻撃の対象であるか否かを判断し,もうひとつはターゲットとするツイートに応答するアカウントを分類し,それらが協調攻撃の一部であるかどうかを判断する。
論文 参考訳(メタデータ) (2024-10-25T02:57:08Z) - On the Use of Proxies in Political Ad Targeting [49.61009579554272]
我々は、主要な政治広告主がプロキシ属性をターゲットとして緩和を回避したことを示す。
本研究は政治広告の規制に関する議論に重要な意味を持つ。
論文 参考訳(メタデータ) (2024-10-18T17:15:13Z) - MisinfoEval: Generative AI in the Era of "Alternative Facts" [50.069577397751175]
本稿では,大規模言語モデル(LLM)に基づく誤情報介入の生成と評価を行うフレームワークを提案する。
本研究では,(1)誤情報介入の効果を測定するための模擬ソーシャルメディア環境の実験,(2)ユーザの人口動態や信念に合わせたパーソナライズされた説明を用いた第2の実験について述べる。
以上の結果から,LSMによる介入はユーザの行動の修正に極めて有効であることが確認された。
論文 参考訳(メタデータ) (2024-10-13T18:16:50Z) - Unraveling the Web of Disinformation: Exploring the Larger Context of State-Sponsored Influence Campaigns on Twitter [16.64763746842362]
我々は、様々な国を起源とする19の国が支援する偽情報キャンペーンをTwitterで調査した。
私たちは機械学習ベースの分類器を構築し、目に見えないキャンペーンから最大94%のアカウントを正しく識別できる。
また、当社のシステムを野放しにして、州が支援するオペレーションに属する可能性のあるアカウントを増やしています。
論文 参考訳(メタデータ) (2024-07-25T15:03:33Z) - Uncovering Agendas: A Novel French & English Dataset for Agenda Detection on Social Media [1.4999444543328293]
本稿では,注釈付きデータが限定的あるいは存在しないソーシャルメディアを通じて,アジェンダ制御の特定の事例を検出する手法を提案する。
タスクをテキストエンテーメント問題として扱うことにより、大規模な注釈付きトレーニングデータセットの要件を克服することが可能となる。
論文 参考訳(メタデータ) (2024-05-01T19:02:35Z) - ManiTweet: A New Benchmark for Identifying Manipulation of News on Social Media [74.93847489218008]
ソーシャルメディア上でのニュースの操作を識別し,ソーシャルメディア投稿の操作を検出し,操作された情報や挿入された情報を特定することを目的とした,新しいタスクを提案する。
この課題を研究するために,データ収集スキーマを提案し,3.6K対のツイートとそれに対応する記事からなるManiTweetと呼ばれるデータセットをキュレートした。
我々の分析では、このタスクは非常に難しいことを示し、大きな言語モデル(LLM)は不満足なパフォーマンスをもたらす。
論文 参考訳(メタデータ) (2023-05-23T16:40:07Z) - Unveiling the Hidden Agenda: Biases in News Reporting and Consumption [59.55900146668931]
イタリアのワクチン論争に関する6年間のデータセットを構築し、物語と選択バイアスを特定するためにベイジアン潜在空間モデルを採用する。
バイアスとエンゲージメントの間に非線形な関係が見られ、極端な位置へのエンゲージメントが高くなった。
Twitter上でのニュース消費の分析は、同様のイデオロギー的な立場のニュースメディアの間で、一般的なオーディエンスを明らかにしている。
論文 参考訳(メタデータ) (2023-01-14T18:58:42Z) - News consumption and social media regulations policy [70.31753171707005]
我々は、ニュース消費とコンテンツ規制の間の相互作用を評価するために、反対のモデレーション手法であるTwitterとGabを強制した2つのソーシャルメディアを分析した。
以上の結果から,Twitterが追求するモデレーションの存在は,疑わしいコンテンツを著しく減少させることがわかった。
Gabに対する明確な規制の欠如は、ユーザが両方のタイプのコンテンツを扱う傾向を生じさせ、ディスカウント/エンドレスメントの振る舞いを考慮に入れた疑わしいコンテンツに対してわずかに好みを示す。
論文 参考訳(メタデータ) (2021-06-07T19:26:32Z) - Cross-Domain Learning for Classifying Propaganda in Online Contents [67.10699378370752]
本稿では,ラベル付き文書や,ニュースやつぶやきからの文をベースとしたクロスドメイン学習の手法を提案する。
本実験は,本手法の有効性を実証し,移動過程におけるソースやターゲットの様々な構成における困難さと限界を同定する。
論文 参考訳(メタデータ) (2020-11-13T10:19:13Z) - Quantifying the Vulnerabilities of the Online Public Square to Adversarial Manipulation Tactics [43.98568073610101]
ソーシャルメディアモデルを用いて、コンテンツの品質に対するいくつかの敵の操作戦術の影響を定量化する。
ソーシャルメディアの目印である影響力のあるアカウントの存在は、操作するオンラインコミュニティの脆弱性を悪化させる。
これらの知見は、プラットフォームがソーシャルメディアユーザーによる操作のレジリエンスを高めるために使われる可能性があることを示唆している。
論文 参考訳(メタデータ) (2019-07-13T21:12:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。