論文の概要: AI Gossip
- arxiv url: http://arxiv.org/abs/2508.08143v1
- Date: Mon, 11 Aug 2025 16:16:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-12 21:23:29.203609
- Title: AI Gossip
- Title(参考訳): AIゴシップ
- Authors: Joel Krueger, Lucy Osler,
- Abstract要約: OpenAIのChatGPTやGoogleのGeminiのような生成AIは、日常的に物事を解決します。
これらの幻覚は馬鹿げているとよりよく理解されていると主張する者もいる。
しかし、彼らはゴシップもできるのだろうか?
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generative AI chatbots like OpenAI's ChatGPT and Google's Gemini routinely make things up. They "hallucinate" historical events and figures, legal cases, academic papers, non-existent tech products and features, biographies, and news articles. Recently, some have argued that these hallucinations are better understood as bullshit. Chatbots produce rich streams of text that look truth-apt without any concern for the truthfulness of what this text says. But can they also gossip? We argue that they can. After some definitions and scene-setting, we focus on a recent example to clarify what AI gossip looks like before considering some distinct harms -- what we call "technosocial harms" -- that follow from it.
- Abstract(参考訳): OpenAIのChatGPTやGoogleのGeminiのようなジェネレーティブなAIチャットボットは、日常的に物事を解決します。
彼らは歴史的出来事や人物、訴訟、学術論文、既存の技術製品や特徴、伝記、ニュース記事などを「幻滅させる」。
近年、これらの幻覚は嘘だとより理解されていると論じる向きもある。
チャットボットが生成するリッチなテキストストリームは、このテキストの真偽を気にすることなく、真に適応しているように見える。
しかし、彼らはゴシップもできるだろうか?
と論じている。
いくつかの定義とシーン設定の後、私たちは、AIのゴシップがどのようなものかを明確にするために、最近の例に注目します。
関連論文リスト
- Manipulation and the AI Act: Large Language Model Chatbots and the Danger of Mirrors [0.0]
AIチャットボットのパーソナライズは、ユーザーとの信頼を高めることができる。
しかし、人工的な実体との密接な密接な関係の錯覚を作り出すことで、それらがより操作できるようにすることもできる。
欧州委員会は、AI法を確定し、EU議会は、ユーザーに大きな害を与えるマニピュティブで詐欺的なAIシステムを禁止している。
論文 参考訳(メタデータ) (2025-03-24T06:56:29Z) - Almost AI, Almost Human: The Challenge of Detecting AI-Polished Writing [55.2480439325792]
本研究では、AI-Polished-Text Evaluationデータセットを用いて、12の最先端AIテキスト検出器を体系的に評価する。
我々の発見によると、検出器は、最小限に洗練されたテキストをAI生成としてフラグ付けし、AIの関与度を区別し、古いモデルや小さなモデルに対するバイアスを示す。
論文 参考訳(メタデータ) (2025-02-21T18:45:37Z) - Human Bias in the Face of AI: Examining Human Judgment Against Text Labeled as AI Generated [48.70176791365903]
本研究では、偏見がAIと人為的コンテンツの知覚をどう形成するかを考察する。
ラベル付きおよびラベルなしコンテンツに対するヒトのラッカーの反応について検討した。
論文 参考訳(メタデータ) (2024-09-29T04:31:45Z) - AbuseGPT: Abuse of Generative AI ChatBots to Create Smishing Campaigns [0.0]
本稿では,既存のAIベースのチャットボットが現実世界の攻撃者によってどのように悪用され,スマイシングテキストを作成するかを示すために,AbuseGPT法を提案する。
我々は、攻撃者が既存の生成AIベースのチャットボットサービスの倫理的基準を活用できることを示す強力な実証的証拠を発見した。
また、生成AIベースのサービスの不正行為を保護するための今後の研究方針やガイドラインについても論じる。
論文 参考訳(メタデータ) (2024-02-15T05:49:22Z) - A New Approach to Voice Authenticity [4.422870070645175]
現在、最も一般的な仮定は、修正されていない人間の音声は本物とみなすことができ、一方、偽の音声はTS合成に由来するというものである。
音声の2進パラダイムから「フェイク」か「リアル」という概念的なシフトを提案する。
その代わりに、フィルタやカットといった従来の変更や、TS合成やVCシステムを含む、‘ボイス編集’のピンポイントに重点を置いています。
論文 参考訳(メタデータ) (2024-02-09T10:34:01Z) - Anatomy of an AI-powered malicious social botnet [6.147741269183294]
本稿では,ChatGPTを用いて人間的なコンテンツを生成するTwitterボットネットについて述べる。
1,140のアカウントを識別し,手動のアノテーションで検証する。
ChatGPTが生成したコンテンツは不審なウェブサイトを促進し、有害なコメントを広める。
論文 参考訳(メタデータ) (2023-07-30T23:06:06Z) - Towards Healthy AI: Large Language Models Need Therapists Too [41.86344997530743]
私たちはHealthy AIを安全で信頼性があり倫理的であると定義しています。
本稿では,これらの有害行動の修正に心理療法を用いるセーフガードGPTフレームワークを提案する。
論文 参考訳(メタデータ) (2023-04-02T00:39:12Z) - What goes on inside rumour and non-rumour tweets and their reactions: A
Psycholinguistic Analyses [58.75684238003408]
ソーシャルメディアのテキストの心理言語学的分析は、誤情報を緩和するために意味のある結論を導くのに不可欠である。
本研究は,様々な事象に関する噂の深い心理言語学的分析を行うことによって貢献する。
論文 参考訳(メタデータ) (2021-11-09T07:45:11Z) - The Threat of Offensive AI to Organizations [52.011307264694665]
この調査は、組織に対する攻撃的なAIの脅威を調査する。
まず、AIが敵の方法、戦略、目標、および全体的な攻撃モデルをどのように変えるかについて議論する。
そして、文献レビューを通じて、敵が攻撃を強化するために使用できる33の攻撃的AI能力を特定します。
論文 参考訳(メタデータ) (2021-06-30T01:03:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。