論文の概要: Stylometric Detection of AI-Generated Text in Twitter Timelines
- arxiv url: http://arxiv.org/abs/2303.03697v1
- Date: Tue, 7 Mar 2023 07:26:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-08 16:19:32.102360
- Title: Stylometric Detection of AI-Generated Text in Twitter Timelines
- Title(参考訳): TwitterタイムラインにおけるAI生成テキストのスティロメトリ検出
- Authors: Tharindu Kumarage, Joshua Garland, Amrita Bhattacharjee, Kirill
Trapeznikov, Scott Ruston, Huan Liu
- Abstract要約: Twitterのようなソーシャルメディアプラットフォームは、AIが生成した誤情報に非常に影響を受けやすい。
潜在的な脅威シナリオは、敵が信頼できるユーザアカウントをハイジャックし、自然言語生成器を組み込んで誤情報を生成する場合である。
本稿では,AI生成ツイートの検出を支援するために,テクスチャ信号を用いた新しいアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 17.62006063931326
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advancements in pre-trained language models have enabled convenient
methods for generating human-like text at a large scale. Though these
generation capabilities hold great potential for breakthrough applications, it
can also be a tool for an adversary to generate misinformation. In particular,
social media platforms like Twitter are highly susceptible to AI-generated
misinformation. A potential threat scenario is when an adversary hijacks a
credible user account and incorporates a natural language generator to generate
misinformation. Such threats necessitate automated detectors for AI-generated
tweets in a given user's Twitter timeline. However, tweets are inherently
short, thus making it difficult for current state-of-the-art pre-trained
language model-based detectors to accurately detect at what point the AI starts
to generate tweets in a given Twitter timeline. In this paper, we present a
novel algorithm using stylometric signals to aid detecting AI-generated tweets.
We propose models corresponding to quantifying stylistic changes in human and
AI tweets in two related tasks: Task 1 - discriminate between human and
AI-generated tweets, and Task 2 - detect if and when an AI starts to generate
tweets in a given Twitter timeline. Our extensive experiments demonstrate that
the stylometric features are effective in augmenting the state-of-the-art
AI-generated text detectors.
- Abstract(参考訳): 近年の事前学習型言語モデルの進歩により、人間のようなテキストを大規模に生成する便利な手法が実現されている。
これらの生成能力は、ブレークスルーアプリケーションに大きな可能性を秘めているが、敵が誤情報を生成するためのツールでもある。
特に、Twitterのようなソーシャルメディアプラットフォームは、AIが生成した誤報に非常に影響を受けやすい。
潜在的な脅威シナリオは、敵が信頼できるユーザアカウントをハイジャックし、自然言語生成器を組み込んで誤情報を生成する場合である。
このような脅威は、ユーザーのTwitterタイムラインでAI生成ツイートの自動検出を必要とする。
しかし、ツイートは本質的に短いため、現在最先端の訓練済み言語モデルベースの検出器が、AIが所定のTwitterタイムラインでツイートを生成し始めた時点を正確に検出することは困難である。
本稿では,ai生成ツイートの検出を支援するスタイロメトリック信号を用いた新しいアルゴリズムを提案する。
タスク1 - 人間とaiが生成したつぶやきを識別するタスク2 - 特定のtwitterタイムラインでaiがつぶやきを生成し始めたかどうかを検知するタスク2 - という2つのタスクにおける、人間とaiのつぶやきの様式的変化を定量化するモデルを提案する。
我々の広範な実験は、このテクスチャ的特徴が最先端のAI生成テキスト検出器の強化に有効であることを示した。
関連論文リスト
- AI incidents and 'networked trouble': The case for a research agenda [0.0]
私は、AIインシデントとそれらがオンライン環境でどのように構築されているかに焦点を当てた研究課題について論じます。
私は、2020年9月のAIインシデントを例にとり、あるTwitterユーザーが「恐ろしい実験」を作成して、画像の収集のためのTwitterのアルゴリズムの人種差別的偏見を実証した。
このようなAIインシデントは、さらなる研究を必要とするAIシステムに参加する上で重要な手段である、と私は主張する。
論文 参考訳(メタデータ) (2024-01-07T11:23:13Z) - AI Content Self-Detection for Transformer-based Large Language Models [0.0]
本稿では、直接起点検出の概念を導入し、生成型AIシステムが出力を認識し、人文テキストと区別できるかどうかを評価する。
GoogleのBardモデルは、精度94%の自己検出の最大の能力を示し、OpenAIのChatGPTは83%である。
論文 参考訳(メタデータ) (2023-12-28T10:08:57Z) - Towards Possibilities & Impossibilities of AI-generated Text Detection:
A Survey [97.33926242130732]
大規模言語モデル(LLM)は、自然言語処理(NLP)の領域に革命をもたらし、人間のようなテキスト応答を生成する能力を持つ。
これらの進歩にもかかわらず、既存の文献のいくつかは、LLMの潜在的な誤用について深刻な懸念を提起している。
これらの懸念に対処するために、研究コミュニティのコンセンサスは、AI生成テキストを検出するアルゴリズムソリューションを開発することである。
論文 参考訳(メタデータ) (2023-10-23T18:11:32Z) - BotArtist: Generic approach for bot detection in Twitter via semi-automatic machine learning pipeline [47.61306219245444]
Twitterは、ボットや偽アカウントのターゲットとなり、偽情報や操作の拡散につながった。
本稿では,機械学習モデル開発に関連する課題に対処するために,セミオートマチック機械学習パイプライン(SAMLP)を提案する。
ユーザプロファイル機能に基づいたボット検出モデルBotArtistを開発した。
論文 参考訳(メタデータ) (2023-05-31T09:12:35Z) - Paraphrasing evades detectors of AI-generated text, but retrieval is an
effective defense [56.077252790310176]
本稿では,パラフレーズ生成モデル(DIPPER)を提案する。
DIPPERを使って3つの大きな言語モデル(GPT3.5-davinci-003)で生成されたテキストを言い換えると、透かしを含むいくつかの検出器を回避できた。
我々は,言語モデルAPIプロバイダによって維持されなければならない,意味論的に類似した世代を検索するシンプルなディフェンスを導入する。
論文 参考訳(メタデータ) (2023-03-23T16:29:27Z) - Can AI-Generated Text be Reliably Detected? [54.670136179857344]
LLMの規制されていない使用は、盗作、偽ニュースの生成、スパムなど、悪意のある結果をもたらす可能性がある。
最近の研究は、生成されたテキスト出力に存在する特定のモデルシグネチャを使用するか、透かし技術を適用してこの問題に対処しようとしている。
本稿では,これらの検出器は実用シナリオにおいて信頼性が低いことを示す。
論文 参考訳(メタデータ) (2023-03-17T17:53:19Z) - Identification of Twitter Bots based on an Explainable ML Framework: the
US 2020 Elections Case Study [72.61531092316092]
本稿では,ラベル付きTwitterデータに基づくTwitterボット識別システムの設計に焦点をあてる。
Supervised Machine Learning (ML)フレームワークは、Extreme Gradient Boosting (XGBoost)アルゴリズムを用いて採用されている。
また、MLモデルの予測を説明するためにShapley Additive Explanations (SHAP)をデプロイした。
論文 参考訳(メタデータ) (2021-12-08T14:12:24Z) - BotSpot: Deep Learning Classification of Bot Accounts within Twitter [2.099922236065961]
Twitterのオープン化機能により、プログラムはTwitter APIを通じてTwitterアカウントを自動生成および制御できる。
ボットとして知られるこれらのアカウントは、ツイート、リツイート、フォロー、フォロー解除、他のアカウントへのダイレクトメッセージなどのアクションを自動的に実行する。
我々は,多層パーセプトロンニューラルネットワークとボットアカウントの9つの特徴を備えた,ディープラーニングを用いた新しいボット検出手法を提案する。
論文 参考訳(メタデータ) (2021-09-08T15:17:10Z) - The Threat of Offensive AI to Organizations [52.011307264694665]
この調査は、組織に対する攻撃的なAIの脅威を調査する。
まず、AIが敵の方法、戦略、目標、および全体的な攻撃モデルをどのように変えるかについて議論する。
そして、文献レビューを通じて、敵が攻撃を強化するために使用できる33の攻撃的AI能力を特定します。
論文 参考訳(メタデータ) (2021-06-30T01:03:28Z) - TweepFake: about Detecting Deepfake Tweets [3.3482093430607254]
ディープニューラルモデルは、コヒーレントで非自明で人間のようなテキストサンプルを生成することができる。
ソーシャルボットは、公開討論を汚染することを望んで、もっともらしいディープフェイクメッセージを書くことができる。
私たちは、本物のディープフェイクツイートの最初のデータセット、TweepFakeを収集します。
論文 参考訳(メタデータ) (2020-07-31T19:01:13Z) - Twitter Bot Detection Using Bidirectional Long Short-term Memory Neural
Networks and Word Embeddings [6.09170287691728]
本稿では,Twitterボットを人間アカウントと区別するために,単語埋め込みを用いたリカレントニューラルネットワークを開発した。
実験により,既存の最先端ボット検出システムと比較して,本手法が競争力を発揮することが示された。
論文 参考訳(メタデータ) (2020-02-03T17:07:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。