論文の概要: Beyond Misinformation: A Conceptual Framework for Studying AI Hallucinations in (Science) Communication
- arxiv url: http://arxiv.org/abs/2504.13777v1
- Date: Fri, 18 Apr 2025 16:26:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-11 11:26:45.157855
- Title: Beyond Misinformation: A Conceptual Framework for Studying AI Hallucinations in (Science) Communication
- Title(参考訳): 誤情報を超えて:(科学)コミュニケーションにおけるAI幻覚を研究するための概念的フレームワーク
- Authors: Anqi Shao,
- Abstract要約: 本稿では,AI幻覚を誤情報の一形態として理解するための概念的枠組みを提案する。
これらのAI幻覚は単なる技術的失敗ではなく、社会的帰結を伴うコミュニケーション現象として扱われるべきである、と私は主張する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This paper proposes a conceptual framework for understanding AI hallucinations as a distinct form of misinformation. While misinformation scholarship has traditionally focused on human intent, generative AI systems now produce false yet plausible outputs absent of such intent. I argue that these AI hallucinations should not be treated merely as technical failures but as communication phenomena with social consequences. Drawing on a supply-and-demand model and the concept of distributed agency, the framework outlines how hallucinations differ from human-generated misinformation in production, perception, and institutional response. I conclude by outlining a research agenda for communication scholars to investigate the emergence, dissemination, and audience reception of hallucinated content, with attention to macro (institutional), meso (group), and micro (individual) levels. This work urges communication researchers to rethink the boundaries of misinformation theory in light of probabilistic, non-human actors increasingly embedded in knowledge production.
- Abstract(参考訳): 本稿では,AI幻覚を誤情報の一形態として理解するための概念的枠組みを提案する。
偽情報奨学金は伝統的に人間の意図に焦点を合わせてきたが、生成的AIシステムは現在では、そのような意図を欠いている偽の、もっともらしいアウトプットを生み出している。
これらのAI幻覚は単なる技術的失敗ではなく、社会的帰結を伴うコミュニケーション現象として扱われるべきである、と私は主張する。
この枠組みは、供給・需要モデルと分散エージェントの概念に基づいて、幻覚が生産、知覚、制度的反応において人為的な誤報とどのように異なるかを説明する。
筆者は, マクロ(施設), メソ(グループ), マイクロ(個人)レベルに注目して, 幻覚コンテンツの発生, 普及, およびオーディエンス受容に関する研究課題を概説した。
この研究は、コミュニケーション研究者に、確率論的で非人間的なアクターが知識生産にますます浸透する中で、誤情報理論の境界を再考するよう促す。
関連論文リスト
- Why and How LLMs Hallucinate: Connecting the Dots with Subsequence Associations [82.42811602081692]
本稿では,幻覚を体系的に追跡・理解するサブシーケンス・アソシエーション・フレームワークを提案する。
主要な洞察は、支配的な幻覚協会が忠実なものを上回るときに生じる幻覚である。
ランダムな入力コンテキストにおける幻覚の確率を解析することにより因果列を同定するトレースアルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-04-17T06:34:45Z) - Hallucination, reliability, and the role of generative AI in science [0.05657375260432172]
いくつかの議論は、幻覚は生成的推論のメカニズムの必然的な結果であることを示している。
私は、腐食性幻覚は科学的信頼性に脅威をもたらすが、それらは避けられないものではないと論じる。
論文 参考訳(メタデータ) (2025-04-11T13:38:56Z) - Medical Hallucinations in Foundation Models and Their Impact on Healthcare [53.97060824532454]
マルチモーダルデータの処理と生成が可能なファンデーションモデルは、医療におけるAIの役割を変革した。
医療幻覚を、モデルが誤解を招く医療内容を生成する場合の例と定義する。
以上の結果から,Chain-of-Thought (CoT) や Search Augmented Generation などの推論手法は,幻覚率を効果的に低減できることがわかった。
これらの知見は、ロバストな検出と緩和戦略のための倫理的かつ実践的な衝動を浮き彫りにした。
論文 参考訳(メタデータ) (2025-02-26T02:30:44Z) - The Law of Knowledge Overshadowing: Towards Understanding, Predicting, and Preventing LLM Hallucination [85.18584652829799]
本稿では,知識のシェードイングをモデル化することで,事実の幻覚を定量化する新しい枠組みを提案する。
オーバシャドウ(27.9%)、MemoTrap(13.1%)、NQ-Swap(18.3%)のモデル事実性を顕著に向上させる。
論文 参考訳(メタデータ) (2025-02-22T08:36:06Z) - Who Brings the Frisbee: Probing Hidden Hallucination Factors in Large Vision-Language Model via Causality Analysis [14.033320167387194]
現実の応用における大きな課題は幻覚であり、LVLMは存在しない視覚要素を生成し、ユーザの信頼を損なう。
我々は、オブジェクト、コンテキスト、セマンティックフォアグラウンド・バックグラウンド構造といった隠れた要因が幻覚を引き起こすという仮説を立てた。
画像・テキスト・プロンプト・ネットワーク・サリエンシの因果関係を解析することにより,これらの要因をブロックするための介入を系統的に検討する。
論文 参考訳(メタデータ) (2024-12-04T01:23:57Z) - LLMs Will Always Hallucinate, and We Need to Live With This [1.3810901729134184]
この研究は、言語モデルにおける幻覚は時折エラーであるだけでなく、これらのシステムの必然的な特徴であると主張している。
したがって、アーキテクチャの改善、データセットの強化、ファクトチェックメカニズムを通じてそれらを取り除くことは不可能である。
論文 参考訳(メタデータ) (2024-09-09T16:01:58Z) - A Cause-Effect Look at Alleviating Hallucination of Knowledge-grounded Dialogue Generation [51.53917938874146]
我々は,対話知識の相互作用を利用して,KGDの幻覚を緩和するための解決策を提案する。
本手法は,他の対話性能を損なうことなく幻覚を低減できることを示す。
論文 参考訳(メタデータ) (2024-04-04T14:45:26Z) - Hallucinations in Neural Automatic Speech Recognition: Identifying
Errors and Hallucinatory Models [11.492702369437785]
幻覚は、ソースの発声とは意味的に無関係であるが、それでも流動的でコヒーレントである。
単語誤り率などの一般的なメトリクスは、幻覚モデルと非幻覚モデルとを区別できないことを示す。
本研究は,幻覚を識別する枠組みを考案し,その意味的関係と基礎的真理と流布との関係を解析する。
論文 参考訳(メタデータ) (2024-01-03T06:56:56Z) - Towards Mitigating Hallucination in Large Language Models via
Self-Reflection [63.2543947174318]
大規模言語モデル(LLM)は、質問応答(QA)タスクを含む生成的および知識集約的なタスクを約束している。
本稿では,広範に採用されているLCMとデータセットを用いた医療再生QAシステムにおける幻覚現象を解析する。
論文 参考訳(メタデータ) (2023-10-10T03:05:44Z) - On Computational Mechanisms for Shared Intentionality, and Speculation
on Rationality and Consciousness [0.0]
人類の特異な特質は、新しい行動、協調行動、チームワークを行う能力である。
これは、個人の頭脳間で目標、計画、アイデアを伝達し、共通の意図を生み出すことを要求する。
先行言語型計算エージェント間の共有意図性を実現するための基本的なメカニズムの必要な特性を導出する。
論文 参考訳(メタデータ) (2023-06-03T21:31:38Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。