論文の概要: Conversational AI Powered by Large Language Models Amplifies False Memories in Witness Interviews
- arxiv url: http://arxiv.org/abs/2408.04681v1
- Date: Thu, 8 Aug 2024 04:55:03 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-12 17:30:10.239358
- Title: Conversational AI Powered by Large Language Models Amplifies False Memories in Witness Interviews
- Title(参考訳): 大規模言語モデルによる会話型AIは、知性面接における虚偽記憶を増幅する
- Authors: Samantha Chan, Pat Pataranutaporn, Aditya Suri, Wazeer Zulfikar, Pattie Maes, Elizabeth F. Loftus,
- Abstract要約: 本研究では,AIが人間の虚偽記憶に与える影響について検討する。
犯罪目撃者のインタビューをシミュレートし、人間とAIのインタラクションにおける示唆的質問を通じて、偽の記憶誘導を探索する。
- 参考スコア(独自算出の注目度): 23.443181324643017
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This study examines the impact of AI on human false memories -- recollections of events that did not occur or deviate from actual occurrences. It explores false memory induction through suggestive questioning in Human-AI interactions, simulating crime witness interviews. Four conditions were tested: control, survey-based, pre-scripted chatbot, and generative chatbot using a large language model (LLM). Participants (N=200) watched a crime video, then interacted with their assigned AI interviewer or survey, answering questions including five misleading ones. False memories were assessed immediately and after one week. Results show the generative chatbot condition significantly increased false memory formation, inducing over 3 times more immediate false memories than the control and 1.7 times more than the survey method. 36.4% of users' responses to the generative chatbot were misled through the interaction. After one week, the number of false memories induced by generative chatbots remained constant. However, confidence in these false memories remained higher than the control after one week. Moderating factors were explored: users who were less familiar with chatbots but more familiar with AI technology, and more interested in crime investigations, were more susceptible to false memories. These findings highlight the potential risks of using advanced AI in sensitive contexts, like police interviews, emphasizing the need for ethical considerations.
- Abstract(参考訳): 本研究では,AIが人間の虚偽記憶に与える影響について検討した。
犯罪目撃者のインタビューをシミュレートし、人間とAIのインタラクションにおける示唆的質問を通じて、偽の記憶誘導を探索する。
制御,サーベイベース,事前記述型チャットボット,大言語モデル(LLM)を用いた生成型チャットボットの4つの条件がテストされた。
参加者(N=200)は犯罪ビデオを見て、割り当てられたAIインタビュアーや調査と対話し、5つの誤解を招く質問に答えた。
偽の記憶は1週間後に評価された。
その結果, 生成チャットボット条件は偽記憶形成を有意に増加させ, 制御値の3倍以上, 調査方法の1.7倍の即時記憶を誘導した。
生成チャットボットに対するユーザの反応の36.4%は、インタラクションによって誤解されている。
1週間後も、生成的チャットボットによって誘発される偽の記憶の数は一定であった。
しかし、これらの虚偽記憶に対する信頼は、1週間経っても支配者よりも高いままであった。
チャットボットに精通せず、AI技術に精通し、犯罪捜査にもっと興味があるユーザーは、偽の記憶に影響を受けやすい。
これらの発見は、警察のインタビューのようなセンシティブな文脈で高度なAIを使用することの潜在的なリスクを強調し、倫理的考慮の必要性を強調している。
関連論文リスト
- Should RAG Chatbots Forget Unimportant Conversations? Exploring Importance and Forgetting with Psychological Insights [21.68243297242355]
本稿では、感情的に記憶を刺激し、会話の10%未満を維持できるLUFYを提案する。
その結果,会話の大部分を忘れたままの記憶の優先順位付けがユーザエクスペリエンスを著しく向上させることが示された。
論文 参考訳(メタデータ) (2024-09-19T07:39:22Z) - Self-Directed Turing Test for Large Language Models [56.64615470513102]
チューリングテストは、自然言語の会話においてAIが人間のような振る舞いを示すことができるかどうかを調べる。
従来のチューリングテストでは、各参加者が1回に1つのメッセージだけを送信する厳格な対話形式を採用している。
本稿では,バーストダイアログ形式を用いた自己指示チューリングテストを提案する。
論文 参考訳(メタデータ) (2024-08-19T09:57:28Z) - GPT-4 is judged more human than humans in displaced and inverted Turing tests [0.7437224586066946]
毎日のAI検出は、オンライン会話における人とAIの差別化を必要とする。
我々は、Turingテストの2つの修正版(反転と置換)を使って、人や大きな言語モデルがいかに差別化できるかを測定した。
論文 参考訳(メタデータ) (2024-07-11T20:28:24Z) - A Complete Survey on LLM-based AI Chatbots [46.18523139094807]
過去数十年間、データの増加を目撃し、データ収集、学習ベースのAI技術の基礎を築いた。
AIチャットボットと呼ばれる会話エージェントは、大きな言語モデル(LLM)をトレーニングし、ユーザのプロンプトに応じて新しいコンテンツ(知識)を生成するために、そのようなデータに大きく依存している。
本稿では,様々な分野におけるLLMベースのチャットボットの進化と展開に関する完全な調査を行う。
論文 参考訳(メタデータ) (2024-06-17T09:39:34Z) - Exploring consumers response to text-based chatbots in e-commerce: The
moderating role of task complexity and chatbot disclosure [0.0]
本研究の目的は、Eコマースにおけるテキストベースのチャットボットに対する消費者の信頼と対応を探ることである。
消費者は、チャットボットの共感と友情の両方に対する認識が、それに対する信頼に肯定的な影響を及ぼす。
テキストベースのチャットボットの開示は、共感と消費者信頼の関係を否定的に抑制する一方で、友人関係と消費者信頼の関係を肯定的に抑制する。
論文 参考訳(メタデータ) (2024-01-20T15:17:50Z) - A Turing Test: Are AI Chatbots Behaviorally Similar to Humans? [19.50537882161282]
ChatGPT-4は、ランダムなヒトの被験者と統計的に区別できない個性特性を示す。
彼らの行動は平均的行動と人的行動とは区別されることが多い。
私たちは、彼らが自分の平均とパートナーの支払いを最大化しているかのように振る舞うと見積もっています。
論文 参考訳(メタデータ) (2023-11-19T16:44:09Z) - Bias and Fairness in Chatbots: An Overview [38.21995125571103]
現代のチャットボットはより強力で、現実世界のアプリケーションで使われてきた。
膨大なトレーニングデータ、非常に大きなモデルサイズ、解釈可能性の欠如、バイアス緩和、公正保存は困難である。
論文 参考訳(メタデータ) (2023-09-16T02:01:18Z) - You Don't Know My Favorite Color: Preventing Dialogue Representations
from Revealing Speakers' Private Personas [44.82330540456883]
簡単なニューラルネットワークを用いて話者のペルソナを高精度に推定可能であることを示す。
提案する防衛目標が,攻撃精度を37.6%から0.5%に大幅に低減できることを示すため,広範囲な実験を行った。
論文 参考訳(メタデータ) (2022-04-26T09:36:18Z) - EmpBot: A T5-based Empathetic Chatbot focusing on Sentiments [75.11753644302385]
共感的会話エージェントは、議論されていることを理解しているだけでなく、会話相手の暗黙の感情も認識すべきである。
変圧器事前学習言語モデル(T5)に基づく手法を提案する。
本研究では,自動計測と人的評価の両方を用いて,情緒的ダイアログデータセットを用いたモデルの評価を行った。
論文 参考訳(メタデータ) (2021-10-30T19:04:48Z) - CheerBots: Chatbots toward Empathy and Emotionusing Reinforcement
Learning [60.348822346249854]
本研究では,複数の共感型チャットボットがユーザの暗黙の感情を理解し,複数の対話のターンに対して共感的に応答する枠組みを提案する。
チャットボットをCheerBotsと呼びます。CheerBotsは検索ベースまたは生成ベースで、深い強化学習によって微調整されます。
共感的態度で反応するため,CheerBotsの学習支援としてシミュレーションエージェントである概念人間モデルを開発し,今後のユーザの感情状態の変化を考慮し,共感を喚起する。
論文 参考訳(メタデータ) (2021-10-08T07:44:47Z) - Put Chatbot into Its Interlocutor's Shoes: New Framework to Learn
Chatbot Responding with Intention [55.77218465471519]
本稿では,チャットボットに人間のような意図を持つための革新的なフレームワークを提案する。
我々のフレームワークには、ガイドロボットと人間の役割を担うインターロケータモデルが含まれていた。
本フレームワークを3つの実験的なセットアップを用いて検討し,4つの異なる指標を用いた誘導ロボットの評価を行い,柔軟性と性能の利点を実証した。
論文 参考訳(メタデータ) (2021-03-30T15:24:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。