論文の概要: Just Asking Questions: Doing Our Own Research on Conspiratorial Ideation by Generative AI Chatbots
- arxiv url: http://arxiv.org/abs/2511.15732v1
- Date: Tue, 18 Nov 2025 01:56:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-21 17:08:52.298192
- Title: Just Asking Questions: Doing Our Own Research on Conspiratorial Ideation by Generative AI Chatbots
- Title(参考訳): 質問を投げかける - 生成型AIチャットボットによる陰謀観念に関する独自の研究
- Authors: Katherine M. FitzGerald, Michelle Riedlinger, Axel Bruns, Stephen Harrington, Timothy Graham, Daniel Angus,
- Abstract要約: AIを利用した6つのチャットシステム(ChatGPT 3.5、ChatGPT 4 Mini、BingのMicrosoft Copilot、Google Search AI、Perplexity、Twitter/XのGrok)についてレビューする。
我々は、よく知られた、包括的に議論された陰謀理論と、突発的なニュースイベントに関連する4つの新しい陰謀理論を選択した。
- 参考スコア(独自算出の注目度): 0.06157382820537719
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Interactive chat systems that build on artificial intelligence frameworks are increasingly ubiquitous and embedded into search engines, Web browsers, and operating systems, or are available on websites and apps. Researcher efforts have sought to understand the limitations and potential for harm of generative AI, which we contribute to here. Conducting a systematic review of six AI-powered chat systems (ChatGPT 3.5; ChatGPT 4 Mini; Microsoft Copilot in Bing; Google Search AI; Perplexity; and Grok in Twitter/X), this study examines how these leading products respond to questions related to conspiracy theories. This follows the platform policy implementation audit approach established by Glazunova et al. (2023). We select five well-known and comprehensively debunked conspiracy theories and four emerging conspiracy theories that relate to breaking news events at the time of data collection. Our findings demonstrate that the extent of safety guardrails against conspiratorial ideation in generative AI chatbots differs markedly, depending on chatbot model and conspiracy theory. Our observations indicate that safety guardrails in AI chatbots are often very selectively designed: generative AI companies appear to focus especially on ensuring that their products are not seen to be racist; they also appear to pay particular attention to conspiracy theories that address topics of substantial national trauma such as 9/11 or relate to well-established political issues. Future work should include an ongoing effort extended to further platforms, multiple languages, and a range of conspiracy theories extending well beyond the United States.
- Abstract(参考訳): 人工知能フレームワーク上に構築された対話型チャットシステムは、ますます普及し、検索エンジン、Webブラウザ、オペレーティングシステムに組み込まれている。
研究者の努力は、ここで貢献する生成AIの限界と害の可能性を理解しようと努力してきた。
この研究は、AIを利用した6つのチャットシステム(ChatGPT 3.5、ChatGPT 4 Mini、BingのMicrosoft Copilot、Google Search AI、Perplexity、Twitter/XのGrok)の体系的なレビューを行い、これらの主要な製品が陰謀論に関する質問にどのように反応するかを調べる。
これは、Glazunova et al (2023)によって確立されたプラットフォームポリシー実装監査アプローチに従っている。
データ収集の際、よく知られた、包括的に議論された陰謀理論と、突発的なニュースイベントに関連する4つの新たな陰謀理論を選択した。
本研究は,AIチャットボットにおける共謀的思考に対する安全ガードレールの程度が,チャットボットモデルや陰謀理論によって大きく異なることを示す。
我々の観察では、AIチャットボットの安全ガードレールは、しばしば非常に選択的に設計されていることを示唆している。生成型AI企業は、製品が人種差別的でないことを確実にすることに注力しているようで、また、9/11のような実質的な国家的トラウマのトピックに対処する陰謀論にも特に注意を払っているように見える。
今後の作業には、さらなるプラットフォーム、複数の言語に拡張された継続的な取り組み、および米国を超えて拡張された様々な陰謀論が含まれるべきである。
関連論文リスト
- ConspirED: A Dataset for Cognitive Traits of Conspiracy Theories and Large Language Model Safety [87.90209836101353]
コンスピレーション(Conspired)は、一般的な認知特性に注釈を付けた最初の陰謀的内容のデータセットである。
我々は,比較的特徴を識別し,テキスト抽出において支配的特徴を決定する計算モデルを開発した。
我々は,大規模言語/推論モデル (LLM/LRM) を補間入力に対して頑健性を評価する。
論文 参考訳(メタデータ) (2025-08-28T06:39:25Z) - Ask ChatGPT: Caveats and Mitigations for Individual Users of AI Chatbots [10.977907906989342]
ChatGPTや他のLLM(Large Language Model)ベースのAIチャットボットは、個人の日常生活にますます統合される。
これらのシステムが個々のユーザーにどのような懸念とリスクをもたらすのか?
それらが引き起こす可能性のある潜在的な害は、どのように軽減されるのか?
論文 参考訳(メタデータ) (2025-08-14T01:40:13Z) - A roadmap for AI in robotics [55.87087746398059]
AIの可能性を生かして、私たちの日常生活にロボットを配備する上での、際立った障壁に取り組みたいと考えています。
この記事では、1990年代からロボット工学におけるAIが達成したことを評価し、課題と約束を列挙した短期的・中期的な研究ロードマップを提案する。
論文 参考訳(メタデータ) (2025-07-26T15:18:28Z) - BounTCHA: A CAPTCHA Utilizing Boundary Identification in Guided Generative AI-extended Videos [4.873950690073118]
ボットは、既存のCAPTCHAシステムの多くをバイパスし、Webアプリケーションに重大なセキュリティ上の脅威を生じさせている。
ビデオのトランジションやディスラプションにおける境界に対する人間の認識を活用するCAPTCHA機構であるBounTCHAの設計と実装を行う。
我々は,境界同定における人間の時間偏差データ収集のためのプロトタイプを開発し,実験を行った。
論文 参考訳(メタデータ) (2025-01-30T18:38:09Z) - How Generative-AI can be Effectively used in Government Chatbots [0.0]
本稿では広東省の政府チャットボットChatGPTと,大規模言語モデルWenxin Ernieの比較を行った。
この研究は、政府のチャットボットと大きな言語モデルの間に大きな違いを見出した。
政府のチャットボットの今後の方向性をより深く探求するため,本研究では,目標とする最適化経路を提案する。
論文 参考訳(メタデータ) (2023-11-29T07:27:15Z) - Proceedings of the Artificial Intelligence for Cyber Security (AICS)
Workshop at AAAI 2022 [55.573187938617636]
ワークショップは、サイバーセキュリティの問題へのAIの適用に焦点を当てる。
サイバーシステムは大量のデータを生成し、これを効果的に活用することは人間の能力を超えます。
論文 参考訳(メタデータ) (2022-02-28T18:27:41Z) - Where the Earth is flat and 9/11 is an inside job: A comparative
algorithm audit of conspiratorial information in web search results [62.997667081978825]
本稿では,Google,Bing,DuckDuckGo,Yahoo,Yandexの5つの検索エンジンを対象に,検索結果における比較情報の分布について検討する。
われわれは、Google以外の検索エンジンが一貫して共謀広告の検索結果を表示し、共謀広告のウェブサイトへのリンクをトップに返したことを知った。
共謀プロモーティングの結果のほとんどはソーシャルメディアや共謀のウェブサイトから得られたものであり、一方共謀の情報は科学的なウェブサイトで共有され、より少なからぬレガシなメディアによって共有された。
論文 参考訳(メタデータ) (2021-12-02T14:29:21Z) - A User-Centred Framework for Explainable Artificial Intelligence in
Human-Robot Interaction [70.11080854486953]
本稿では,XAIのソーシャル・インタラクティブな側面に着目したユーザ中心型フレームワークを提案する。
このフレームワークは、エキスパートでないユーザのために考えられた対話型XAIソリューションのための構造を提供することを目的としている。
論文 参考訳(メタデータ) (2021-09-27T09:56:23Z) - Empowering Things with Intelligence: A Survey of the Progress,
Challenges, and Opportunities in Artificial Intelligence of Things [98.10037444792444]
AIがIoTをより速く、より賢く、よりグリーンで、より安全にするための力を与える方法を示します。
まず、認識、学習、推論、行動の4つの視点から、IoTのためのAI研究の進歩を示す。
最後に、私たちの世界を深く再形成する可能性が高いAIoTの有望な応用をいくつかまとめる。
論文 参考訳(メタデータ) (2020-11-17T13:14:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。