論文の概要: AI model GPT-3 (dis)informs us better than humans
- arxiv url: http://arxiv.org/abs/2301.11924v2
- Date: Tue, 31 Jan 2023 10:14:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-05 04:27:12.826916
- Title: AI model GPT-3 (dis)informs us better than humans
- Title(参考訳): AIモデルGPT-3(dis)は私たちを人間より良く表現する
- Authors: Giovanni Spitale, Nikola Biller-Andorno, Federico Germani
- Abstract要約: 採用した個人が、つぶやきの形で構造化された正確な情報と偽情報を区別できるかどうかを評価する。
以上の結果から, GPT-3は両刃の剣であり, 理解しやすいが, より説得力のある偽情報を生成できることがわかった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Artificial intelligence is changing the way we create and evaluate
information, and this is happening during an infodemic, which has been having
dramatic effects on global health. In this paper we evaluate whether recruited
individuals can distinguish disinformation from accurate information,
structured in the form of tweets, and determine whether a tweet is organic or
synthetic, i.e., whether it has been written by a Twitter user or by the AI
model GPT-3. Our results show that GPT-3 is a double-edge sword, which, in
comparison with humans, can produce accurate information that is easier to
understand, but can also produce more compelling disinformation. We also show
that humans cannot distinguish tweets generated by GPT-3 from tweets written by
human users. Starting from our results, we reflect on the dangers of AI for
disinformation, and on how we can improve information campaigns to benefit
global health.
- Abstract(参考訳): 人工知能(ai)は、情報の作成と評価の方法を変えています。
本稿では,不正確な情報を正確な情報と区別できるかどうかを評価し,ツイートがオーガニックか合成か,すなわち,twitterユーザによって書かれたのか,あるいはaiモデルgpt-3で書かれているのかを判断する。
以上の結果から,GPT-3は両刃の剣であり,人間と比較すると理解しやすいが,より説得力のある偽情報を生成できることがわかった。
また、GPT-3で生成されたツイートと人間のツイートを区別できないことを示す。
結果から,不正情報に対するaiの危険性と,グローバルヘルスに利益をもたらすための情報キャンペーンの改善方法について考察する。
関連論文リスト
- Human Bias in the Face of AI: The Role of Human Judgement in AI Generated Text Evaluation [48.70176791365903]
本研究では、偏見がAIと人為的コンテンツの知覚をどう形成するかを考察する。
ラベル付きおよびラベルなしコンテンツに対するヒトのラッカーの反応について検討した。
論文 参考訳(メタデータ) (2024-09-29T04:31:45Z) - GPT-4 Understands Discourse at Least as Well as Humans Do [1.3499500088995462]
GPT-4は、非常に高いレベルの人的性能を与えられたヒトよりも、わずかに、統計的に有意ではない。
GPT-4と人間は共に、物語に明記されていない情報について推論する強力な能力を示しており、これは理解の批判的なテストである。
論文 参考訳(メタデータ) (2024-03-25T21:17:14Z) - Seeing is not always believing: Benchmarking Human and Model Perception
of AI-Generated Images [66.20578637253831]
人工知能(AI)技術の進歩が偽写真を生み出すのではないかという懸念が高まっている。
本研究の目的は、最先端のAI生成視覚コンテンツを識別するためのエージェントを包括的に評価することである。
論文 参考訳(メタデータ) (2023-04-25T17:51:59Z) - Stylometric Detection of AI-Generated Text in Twitter Timelines [17.62006063931326]
Twitterのようなソーシャルメディアプラットフォームは、AIが生成した誤情報に非常に影響を受けやすい。
潜在的な脅威シナリオは、敵が信頼できるユーザアカウントをハイジャックし、自然言語生成器を組み込んで誤情報を生成する場合である。
本稿では,AI生成ツイートの検出を支援するために,テクスチャ信号を用いた新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-03-07T07:26:09Z) - Improving Human-AI Collaboration With Descriptions of AI Behavior [14.904401331154062]
人々はAIシステムを使って意思決定を改善するが、しばしばAIの予測を過度に、あるいは過度に予測し、手伝わなかったよりも悪いパフォーマンスをする。
人々がAIアシスタントを適切に頼りにするために、行動記述を示すことを提案する。
論文 参考訳(メタデータ) (2023-01-06T00:33:08Z) - Deceptive AI Systems That Give Explanations Are Just as Convincing as
Honest AI Systems in Human-Machine Decision Making [38.71592583606443]
真実と偽の情報を見分ける能力は、健全な決定を下す上で不可欠である。
近年、AIに基づく偽情報キャンペーンが増加し、人間の情報処理に対する偽情報システムの影響を理解することが重要になっている。
論文 参考訳(メタデータ) (2022-09-23T20:09:03Z) - Adherence to Misinformation on Social Media Through Socio-Cognitive and
Group-Based Processes [79.79659145328856]
誤報が広まると、これはソーシャルメディア環境が誤報の付着を可能にするためである、と我々は主張する。
偏光と誤情報付着が密接な関係にあると仮定する。
論文 参考訳(メタデータ) (2022-06-30T12:34:24Z) - Faking Fake News for Real Fake News Detection: Propaganda-loaded
Training Data Generation [105.20743048379387]
提案手法は,人間によるプロパガンダのスタイルや戦略から情報を得た学習例を生成するための新しいフレームワークである。
具体的には、生成した記事の有効性を確保するために、自然言語推論によって導かれる自己臨界シーケンストレーニングを行う。
実験の結果、PropaNewsでトレーニングされた偽ニュース検知器は、2つの公開データセットで3.62~7.69%のF1スコアで人書きの偽情報を検出するのに優れていることがわかった。
論文 参考訳(メタデータ) (2022-03-10T14:24:19Z) - The Who in XAI: How AI Background Shapes Perceptions of AI Explanations [61.49776160925216]
私たちは、2つの異なるグループ、つまりAIのバックグラウンドを持つ人々といない人たちの、異なるタイプのAI説明に対する理解について、混合手法による研究を行います。
その結果,(1) 両群は異なる理由から不合理な数に対する信頼を示し,(2) それぞれの群は意図した設計以上の異なる説明に価値を見出した。
論文 参考訳(メタデータ) (2021-07-28T17:32:04Z) - The Threat of Offensive AI to Organizations [52.011307264694665]
この調査は、組織に対する攻撃的なAIの脅威を調査する。
まず、AIが敵の方法、戦略、目標、および全体的な攻撃モデルをどのように変えるかについて議論する。
そして、文献レビューを通じて、敵が攻撃を強化するために使用できる33の攻撃的AI能力を特定します。
論文 参考訳(メタデータ) (2021-06-30T01:03:28Z) - Does Explainable Artificial Intelligence Improve Human Decision-Making? [17.18994675838646]
我々は、AI(制御)を使わずに客観的な人間の意思決定精度を、AI予測(説明なし)とAI予測(説明なし)とを比較して評価する。
あらゆる種類のAI予測は、ユーザの判断精度を改善する傾向がありますが、説明可能なAIが有意義な影響を与えるという決定的な証拠はありません。
我々の結果は、少なくともいくつかの状況において、説明可能なAIが提供する「なぜ」情報は、ユーザの意思決定を促進することができないことを示唆している。
論文 参考訳(メタデータ) (2020-06-19T15:46:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。