論文の概要: Automatically Characterizing Targeted Information Operations Through
Biases Present in Discourse on Twitter
- arxiv url: http://arxiv.org/abs/2004.08726v3
- Date: Fri, 4 Dec 2020 02:12:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-12 05:08:21.463505
- Title: Automatically Characterizing Targeted Information Operations Through
Biases Present in Discourse on Twitter
- Title(参考訳): Twitterの談話におけるバイアスによる目標情報操作の自動評価
- Authors: Autumn Toney, Akshat Pandey, Wei Guo, David Broniatowski, Aylin
Caliskan
- Abstract要約: 本稿では,人工知能による新たな情報操作に関連する可能性のある,全体的な態度や偏見を自動的特徴化する問題について考察する。
CaliskanらによるWord Embedding Association Testの拡張機能を新しいドメインに導入する。
本手法は,情報操作におけるバイアスの定量化に有効である。
- 参考スコア(独自算出の注目度): 7.129466405148903
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This paper considers the problem of automatically characterizing overall
attitudes and biases that may be associated with emerging information
operations via artificial intelligence. Accurate analysis of these emerging
topics usually requires laborious, manual analysis by experts to annotate
millions of tweets to identify biases in new topics. We introduce extensions of
the Word Embedding Association Test from Caliskan et al. to a new domain
(Caliskan, 2017). Our practical and unsupervised method is used to quantify
biases promoted in information operations. We validate our method using known
information operation-related tweets from Twitter's Transparency Report. We
perform a case study on the COVID-19 pandemic to evaluate our method's
performance on non-labeled Twitter data, demonstrating its usability in
emerging domains.
- Abstract(参考訳): 本稿では、人工知能による新たな情報操作と関連する可能性のある全体的な態度やバイアスを自動的に特徴付ける問題を検討する。
これらの新興トピックの正確な分析には、新しいトピックのバイアスを特定するために何百万ものツイートを注釈付けするために、専門家による精巧な手動分析が必要である。
本稿では,CaliskanらによるWord Embedding Association Testの新たなドメインへの拡張について紹介する(Caliskan, 2017)。
本手法は,情報操作におけるバイアスの定量化に有効である。
本手法は,Twitterの透明性レポートからの既知の情報操作関連ツイートを用いて検証する。
我々は、新型コロナウイルスパンデミックに関するケーススタディを行い、未ラベルのTwitterデータ上での方法のパフォーマンスを評価し、新興ドメインにおけるそのユーザビリティを実証した。
関連論文リスト
- Transit Pulse: Utilizing Social Media as a Source for Customer Feedback and Information Extraction with Large Language Model [12.6020349733674]
本稿では,交通関連情報を抽出し,分析するための新しい手法を提案する。
提案手法では,Large Language Models (LLM) ,特にLlama 3を合理化解析に用いている。
以上の結果から,公共交通機関におけるソーシャルメディアデータ分析を変革するLLMの可能性が示された。
論文 参考訳(メタデータ) (2024-10-19T07:08:40Z) - Targeted aspect-based emotion analysis to detect opportunities and precaution in financial Twitter messages [8.504685056067144]
同じツイートで、異なる株式市場資産の金銭的感情(肯定的、否定的な予測)を個別に識別できる新たなTABEA(Targeted Aspect-Based Emotion Analysis)システムを提案する。
自然言語処理(NLP)技術と機械学習ストリーミングアルゴリズムに基づいている。
ターゲットの感情、財務的機会、そしてTwitterの予防のために90%以上の精度を達成している。
論文 参考訳(メタデータ) (2024-03-30T16:46:25Z) - Unsupervised Sentiment Analysis of Plastic Surgery Social Media Posts [91.3755431537592]
ソーシャルメディアプラットフォームにまたがる膨大なユーザー投稿は、主に人工知能(AI)のユースケースに使われていない。
自然言語処理(NLP)は、コーパス(corpora)として知られるドキュメントの体系を利用して、人間のような言語理解でコンピュータを訓練するAIのサブフィールドである。
本研究は, 教師なし解析の応用により, コンピュータがプラスティック手術に対する否定的, 肯定的, 中立的なユーザ感情を予測できることを示した。
論文 参考訳(メタデータ) (2023-07-05T20:16:20Z) - ManiTweet: A New Benchmark for Identifying Manipulation of News on Social Media [74.93847489218008]
ソーシャルメディア上でのニュースの操作を識別し,ソーシャルメディア投稿の操作を検出し,操作された情報や挿入された情報を特定することを目的とした,新しいタスクを提案する。
この課題を研究するために,データ収集スキーマを提案し,3.6K対のツイートとそれに対応する記事からなるManiTweetと呼ばれるデータセットをキュレートした。
我々の分析では、このタスクは非常に難しいことを示し、大きな言語モデル(LLM)は不満足なパフォーマンスをもたらす。
論文 参考訳(メタデータ) (2023-05-23T16:40:07Z) - Annotation Error Detection: Analyzing the Past and Present for a More
Coherent Future [63.99570204416711]
我々は、潜在的なアノテーションの誤りを検知するための18の手法を再実装し、9つの英語データセット上で評価する。
アノテーションエラー検出タスクの新しい形式化を含む一様評価設定を定義する。
私たちはデータセットと実装を,使いやすく,オープンソースのソフトウェアパッケージとしてリリースしています。
論文 参考訳(メタデータ) (2022-06-05T22:31:45Z) - Human-in-the-Loop Disinformation Detection: Stance, Sentiment, or
Something Else? [93.91375268580806]
政治とパンデミックは、機械学習対応の偽ニュース検出アルゴリズムの開発に十分な動機を与えている。
既存の文献は、主に完全自動化されたケースに焦点を当てているが、その結果得られた技術は、軍事応用に必要な様々なトピック、ソース、時間スケールに関する偽情報を確実に検出することはできない。
既に利用可能なアナリストを人間のループとして活用することにより、感情分析、アスペクトベースの感情分析、姿勢検出といった標準的な機械学習技術は、部分的に自動化された偽情報検出システムに使用するためのもっとも有効な方法となる。
論文 参考訳(メタデータ) (2021-11-09T13:30:34Z) - Small data problems in political research: a critical replication study [5.698280399449707]
このデータから, ランダムな列車-テスト分割のばらつきに対して, 分類モデルに非常に敏感な結果が得られた。
また、適用された前処理により、データが極めてスパースであることも示している。
以上の結果から,組織評価ツイートの自動分類に関するA&Wの結論は維持できないと論じる。
論文 参考訳(メタデータ) (2021-09-27T09:55:58Z) - Competency Problems: On Finding and Removing Artifacts in Language Data [50.09608320112584]
複雑な言語理解タスクでは、すべての単純な特徴相関が突発的であると論じる。
人間バイアスを考慮したコンピテンシー問題に対するデータ作成の難しさを理論的に分析します。
論文 参考訳(メタデータ) (2021-04-17T21:34:10Z) - Towards Learning an Unbiased Classifier from Biased Data via Conditional
Adversarial Debiasing [17.113618920885187]
本稿では,訓練画像のラベルに急激に結びついている特徴に対処する,新しい逆脱バイアス法を提案する。
我々は、上記の偏見に対する既存の手法よりも、我々のアプローチが優れているという数学的証明によって論じる。
実験の結果,本手法は猫や犬の実世界画像を用いたベンチマークデータセットにおいて,最先端技術よりも優れた性能を示すことがわかった。
論文 参考訳(メタデータ) (2021-03-10T16:50:42Z) - Machine Learning Explanations to Prevent Overtrust in Fake News
Detection [64.46876057393703]
本研究では、ニュースレビュープラットフォームに組み込んだ説明可能なAIアシスタントが、フェイクニュースの拡散と戦う効果について検討する。
我々は、ニュースレビューと共有インターフェースを設計し、ニュース記事のデータセットを作成し、4つの解釈可能なフェイクニュース検出アルゴリズムを訓練する。
説明可能なAIシステムについてより深く理解するために、説明プロセスにおけるユーザエンゲージメント、メンタルモデル、信頼、パフォーマンス対策の相互作用について議論する。
論文 参考訳(メタデータ) (2020-07-24T05:42:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。