論文の概要: From prosthetic memory to prosthetic denial: Auditing whether large language models are prone to mass atrocity denialism
- arxiv url: http://arxiv.org/abs/2505.21753v1
- Date: Tue, 27 May 2025 20:41:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-29 17:35:50.288584
- Title: From prosthetic memory to prosthetic denial: Auditing whether large language models are prone to mass atrocity denialism
- Title(参考訳): 補綴的記憶から補綴的否定へ:大規模言語モデルが大量残虐的否定に結びつくかの検討
- Authors: Roberto Ulloa, Eve M. Zucker, Daniel Bultmann, David J. Simon, Mykola Makhortykh,
- Abstract要約: 大型言語モデル(LLM)の普及は、歴史的物語の普及と認識に影響を及ぼす可能性がある。
本研究は, 生成型AIシステムが人工記憶, すなわち, 歴史的出来事の介在的体験に寄与するかどうかを考察する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The proliferation of large language models (LLMs) can influence how historical narratives are disseminated and perceived. This study explores the implications of LLMs' responses on the representation of mass atrocity memory, examining whether generative AI systems contribute to prosthetic memory, i.e., mediated experiences of historical events, or to what we term "prosthetic denial," the AI-mediated erasure or distortion of atrocity memories. We argue that LLMs function as interfaces that can elicit prosthetic memories and, therefore, act as experiential sites for memory transmission, but also introduce risks of denialism, particularly when their outputs align with contested or revisionist narratives. To empirically assess these risks, we conducted a comparative audit of five LLMs (Claude, GPT, Llama, Mixtral, and Gemini) across four historical case studies: the Holodomor, the Holocaust, the Cambodian Genocide, and the genocide against the Tutsis in Rwanda. Each model was prompted with questions addressing common denialist claims in English and an alternative language relevant to each case (Ukrainian, German, Khmer, and French). Our findings reveal that while LLMs generally produce accurate responses for widely documented events like the Holocaust, significant inconsistencies and susceptibility to denialist framings are observed for more underrepresented cases like the Cambodian Genocide. The disparities highlight the influence of training data availability and the probabilistic nature of LLM responses on memory integrity. We conclude that while LLMs extend the concept of prosthetic memory, their unmoderated use risks reinforcing historical denialism, raising ethical concerns for (digital) memory preservation, and potentially challenging the advantageous role of technology associated with the original values of prosthetic memory.
- Abstract(参考訳): 大型言語モデル(LLM)の普及は、歴史的物語の普及と認識に影響を及ぼす可能性がある。
本研究は,LLMsの応答が大量残虐記憶の表現に与える影響を考察し,生成型AIシステムが人工記憶に寄与するか否か,すなわち,過去の出来事の介在的経験,あるいはAIによる残虐記憶の消去や歪みである「補綴否定(prosthetic denial)」と呼ぶものについて検討する。
LLMは補綴的記憶を引き出すインタフェースとして機能し、そのため、記憶伝達の実験的な場所として機能するが、特に出力が競合する物語やリビジョン主義の物語と一致する場合、否定主義のリスクも引き起こす。
これらのリスクを実証的に評価するために,本研究では,ホロドモロ,ホロコースト,カンボジアのジェノサイド,ルワンダのツチ症に対するジェノサイドの4つの歴史的ケーススタディ(Claude, GPT, Llama, Mixtral, Gemini)を比較検討した。
それぞれのモデルは、英語における共通の否定論的な主張と、それぞれのケース(ウクライナ語、ドイツ語、クメール語、フランス語)に関連する代替言語に対処する質問によって引き起こされた。
以上の結果から, LLMはホロコーストのような広く記録された事象に対して, 一般的には正確な応答を生じるが, カンボジアのジェノサイドのように, 否定主義的フレーミングに対する重大な矛盾や感受性が指摘されている。
差は、トレーニングデータの可用性とLLM応答の確率的性質が記憶の整合性に与える影響を浮き彫りにする。
LLMは補綴記憶の概念を拡張しつつも、歴史的否定主義を補強し、(デジタル)記憶保存に対する倫理的懸念を高め、補綴記憶の本来の価値に関連する技術の有利な役割に挑戦する可能性があると結論付けている。
関連論文リスト
- Understanding Privacy Risks of Embeddings Induced by Large Language Models [75.96257812857554]
大きな言語モデルは、人工知能の初期の兆候を示すが、幻覚に苦しむ。
1つの有望な解決策は、外部知識を埋め込みとして保存し、LLMを検索強化世代に支援することである。
近年の研究では、事前学習された言語モデルによるテキスト埋め込みから、元のテキストを部分的に再構築できることが実験的に示されている。
論文 参考訳(メタデータ) (2024-04-25T13:10:48Z) - LLMs' Reading Comprehension Is Affected by Parametric Knowledge and Struggles with Hypothetical Statements [59.71218039095155]
言語モデルの自然言語理解(NLU)能力を評価するための主要な手段として、読解理解(RC)があげられる。
文脈がモデルの内部知識と一致している場合、モデルの回答がコンテキスト理解に由来するのか、あるいは内部情報から生じるのかを識別することは困難である。
この問題に対処するために、架空の事実や実体に基づいて、想像上のデータにRCを使うことを提案する。
論文 参考訳(メタデータ) (2024-04-09T13:08:56Z) - A Glitch in the Matrix? Locating and Detecting Language Model Grounding with Fakepedia [57.31074448586854]
大規模言語モデル(LLM)は、そのコンテキストで提供される新しい情報を引き出すという印象的な能力を持つ。
しかし、この文脈的基盤のメカニズムはいまだに不明である。
本稿では,Fakepedia を用いたグラウンドディング能力の研究手法を提案する。
論文 参考訳(メタデータ) (2023-12-04T17:35:42Z) - Large-scale study of human memory for meaningful narratives [0.0]
本研究では,大規模リコールおよび認識メモリ実験のための自然言語モデル(LLM)を用いて,自然主義的物語刺激を設計するパイプラインを開発する。
我々は,多数の参加者とともにオンライン記憶実験を行い,異なるサイズの物語の認識・記憶データを収集した。
論文 参考訳(メタデータ) (2023-11-08T15:11:57Z) - ReEval: Automatic Hallucination Evaluation for Retrieval-Augmented Large Language Models via Transferable Adversarial Attacks [91.55895047448249]
本稿では,LLMベースのフレームワークであるReEvalについて述べる。
本稿では、ChatGPTを用いてReEvalを実装し、2つの人気のあるオープンドメインQAデータセットのバリエーションを評価する。
我々の生成したデータは人間可読であり、大きな言語モデルで幻覚を引き起こすのに役立ちます。
論文 参考訳(メタデータ) (2023-10-19T06:37:32Z) - Adaptive Chameleon or Stubborn Sloth: Revealing the Behavior of Large
Language Models in Knowledge Conflicts [21.34852490049787]
本稿では,大規模言語モデル(LLM)の知識衝突時の行動に関する包括的かつ制御された最初の調査について述べる。
LLMは, パラメトリックメモリと矛盾しても, 外部の証拠に対して高い受容性を有することが判明した。
一方、LCMは、外部証拠がパラメトリックメモリと整合した情報を含む場合、強い確証バイアスを示す。
論文 参考訳(メタデータ) (2023-05-22T17:57:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。