論文の概要: The AI Memory Gap: Users Misremember What They Created With AI or Without
- arxiv url: http://arxiv.org/abs/2509.11851v1
- Date: Mon, 15 Sep 2025 12:31:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-16 17:26:23.274529
- Title: The AI Memory Gap: Users Misremember What They Created With AI or Without
- Title(参考訳): AI Memory Gap:AIで作ったものを思い出すか、使わないか
- Authors: Tim Zindulka, Sven Goller, Daniela Fernandes, Robin Welsch, Daniel Buschek,
- Abstract要約: 我々は,AIを用いてコンテンツソースを正確に記憶する方法について検討する。
AIの使用後、正しい帰属の確率は低下し、混在するAIが最も急激な減少となった。
- 参考スコア(独自算出の注目度): 20.73082257013802
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As large language models (LLMs) become embedded in interactive text generation, disclosure of AI as a source depends on people remembering which ideas or texts came from themselves and which were created with AI. We investigate how accurately people remember the source of content when using AI. In a pre-registered experiment, 184 participants generated and elaborated on ideas both unaided and with an LLM-based chatbot. One week later, they were asked to identify the source (noAI vs withAI) of these ideas and texts. Our findings reveal a significant gap in memory: After AI use, the odds of correct attribution dropped, with the steepest decline in mixed human-AI workflows, where either the idea or elaboration was created with AI. We validated our results using a computational model of source memory. Discussing broader implications, we highlight the importance of considering source confusion in the design and use of interactive text generation technologies.
- Abstract(参考訳): 大規模言語モデル(LLM)がインタラクティブなテキスト生成に組み込まれるようになると、ソースとしてのAIの開示は、アイデアやテキストがどこから来たのか、AIで作成されたのかを記憶する人々に依存する。
我々は,AIを用いてコンテンツソースを正確に記憶する方法について検討する。
事前登録された実験では、184人の参加者が、LLMベースのチャットボットの両方でアイデアを作成した。
1週間後、彼らはこれらのアイデアとテキストのソース(noAI対withAI)を特定するように依頼された。
AIの使用後、正しい帰属の確率が低下し、AIでアイデアや実験が作成された混合AIワークフローが急激な減少を経験しました。
我々は,ソースメモリの計算モデルを用いて実験結果を検証した。
より広義の意味を論じる上で,対話型テキスト生成技術の設計と利用において,ソースの混乱を考慮することの重要性を強調した。
関連論文リスト
- Could AI Trace and Explain the Origins of AI-Generated Images and Text? [53.11173194293537]
AI生成コンテンツは、現実の世界ではますます普及している。
敵は、大規模なマルチモーダルモデルを利用して、倫理的または法的基準に違反した画像を作成するかもしれない。
ペーパーレビュアーは、大きな言語モデルを誤用して、真の知的努力なしにレビューを生成する。
論文 参考訳(メタデータ) (2025-04-05T20:51:54Z) - Almost AI, Almost Human: The Challenge of Detecting AI-Polished Writing [55.2480439325792]
本研究では、AI-Polished-Text Evaluationデータセットを用いて、12の最先端AIテキスト検出器を体系的に評価する。
我々の発見によると、検出器は、最小限に洗練されたテキストをAI生成としてフラグ付けし、AIの関与度を区別し、古いモデルや小さなモデルに対するバイアスを示す。
論文 参考訳(メタデータ) (2025-02-21T18:45:37Z) - Human Bias in the Face of AI: Examining Human Judgment Against Text Labeled as AI Generated [48.70176791365903]
本研究では、偏見がAIと人為的コンテンツの知覚をどう形成するかを考察する。
ラベル付きおよびラベルなしコンテンツに対するヒトのラッカーの反応について検討した。
論文 参考訳(メタデータ) (2024-09-29T04:31:45Z) - Is Contrasting All You Need? Contrastive Learning for the Detection and Attribution of AI-generated Text [4.902089836908786]
WhosAIは、与えられた入力テキストが人間かAIによって生成されたかを予測するために設計された3重ネットワークコントラスト学習フレームワークである。
提案するフレームワークは,チューリングテストとオーサリングの両タスクにおいて,優れた結果が得られることを示す。
論文 参考訳(メタデータ) (2024-07-12T15:44:56Z) - Psittacines of Innovation? Assessing the True Novelty of AI Creations [0.26107298043931204]
我々は、仮説的なクラウドファンディングキャンペーンのために、AIにプロジェクトタイトルの生成を任せる。
AI生成したプロジェクトタイトルで比較し、繰り返しと複雑さを測定します。
結果は、タスクの複雑さが増大しても、AIがユニークなコンテンツを生成することを示唆している。
論文 参考訳(メタデータ) (2024-03-17T13:08:11Z) - Bootstrapping Developmental AIs: From Simple Competences to Intelligent
Human-Compatible AIs [0.0]
主流のAIアプローチは、大きな言語モデル(LLM)による生成的および深層学習アプローチと、手動で構築されたシンボリックアプローチである。
このポジションペーパーでは、開発AIの実践を拡張して、レジリエンスでインテリジェントで、人間と互換性のあるAIを作り出すための、展望、ギャップ、課題を概説する。
論文 参考訳(メタデータ) (2023-08-08T21:14:21Z) - AI for the Generation and Testing of Ideas Towards an AI Supported
Knowledge Development Environment [2.0305676256390934]
生成AIが人間のバイアスを排除してアイデア生成を促進する方法について論じる。
また、検索が事実、論理、文脈をどう検証できるかについても記述する。
本稿では,知識労働者のためのシステムであるジェネレーション・アンド・サーチ・テスト(Generate and Search Test)を紹介し,個人が効率的にソリューションを作成できるようにする。
論文 参考訳(メタデータ) (2023-07-17T22:17:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。