論文の概要: Synthetic Human Memories: AI-Edited Images and Videos Can Implant False Memories and Distort Recollection
- arxiv url: http://arxiv.org/abs/2409.08895v1
- Date: Fri, 13 Sep 2024 15:08:39 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-16 16:09:45.261678
- Title: Synthetic Human Memories: AI-Edited Images and Videos Can Implant False Memories and Distort Recollection
- Title(参考訳): 合成人間の記憶:AI編集された画像とビデオは、偽の記憶と歪んだ記憶を埋め込むことができる
- Authors: Pat Pataranutaporn, Chayapatr Archiwaranguprok, Samantha W. T. Chan, Elizabeth Loftus, Pattie Maes,
- Abstract要約: AIは、意図的にも意図的にも、画像やビデオの強化にますます利用されている。
本研究では,AIを用いた視覚が虚偽記憶に与える影響について検討する。
- 参考スコア(独自算出の注目度): 27.957360687413765
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: AI is increasingly used to enhance images and videos, both intentionally and unintentionally. As AI editing tools become more integrated into smartphones, users can modify or animate photos into realistic videos. This study examines the impact of AI-altered visuals on false memories--recollections of events that didn't occur or deviate from reality. In a pre-registered study, 200 participants were divided into four conditions of 50 each. Participants viewed original images, completed a filler task, then saw stimuli corresponding to their assigned condition: unedited images, AI-edited images, AI-generated videos, or AI-generated videos of AI-edited images. AI-edited visuals significantly increased false recollections, with AI-generated videos of AI-edited images having the strongest effect (2.05x compared to control). Confidence in false memories was also highest for this condition (1.19x compared to control). We discuss potential applications in HCI, such as therapeutic memory reframing, and challenges in ethical, legal, political, and societal domains.
- Abstract(参考訳): AIは、意図的にも意図的にも、画像やビデオの強化にますます利用されている。
AI編集ツールがスマートフォンに統合されるにつれて、ユーザーは写真の修正やアニメーションをリアルなビデオにすることができる。
本研究では,AIを用いた視覚が虚偽の記憶に与える影響について検討する。
事前登録された調査では、200人の参加者がそれぞれ4つの条件に分けられた。
参加者はオリジナルの画像を見て、フィラータスクを完了し、割り当てられた条件(未編集画像、AI編集画像、AI生成ビデオ、AI編集画像のAI生成ビデオ)に応じた刺激を見た。
AI編集された視覚は、AI編集された画像の動画(制御と比較して2.05倍)によって、偽の記憶を著しく増加させた。
虚偽記憶の信頼度も、この条件では最も高かった(1.19倍)。
治療記憶リフレーミングなどのHCIの潜在的な応用や、倫理的、法的、政治的、社会的領域における課題について論じる。
関連論文リスト
- The Impacts of AI Avatar Appearance and Disclosure on User Motivation [0.0]
本研究では,仮想インタラクションにおけるAI特徴がユーザのモチベーションに与える影響について検討する。
探索問題のみ, あるいはAIコンパニオンを用いて72,500人以上の参加者を対象に, ゲームベースの実験を行った。
論文 参考訳(メタデータ) (2024-07-31T10:48:55Z) - Solutions to Deepfakes: Can Camera Hardware, Cryptography, and Deep Learning Verify Real Images? [51.3344199560726]
信頼性の高い合成データから実際のデータを分離する手法を確立することが不可欠である。
この文書は、どの画像が本物かを検証するために使用できる検出と暗号に関する既知の戦略を提示することを目的としている。
論文 参考訳(メタデータ) (2024-07-04T22:01:21Z) - A Sanity Check for AI-generated Image Detection [49.08585395873425]
本稿では,AIによる画像検出の課題が解決されたかどうかの検査を行う。
既存の手法の一般化を定量化するために,Chameleonデータセット上で,既製のAI生成画像検出器を9つ評価した。
複数の専門家が同時に視覚的アーチファクトやノイズパターンを抽出するAI生成画像検出装置(AID)を提案する。
論文 参考訳(メタデータ) (2024-06-27T17:59:49Z) - Unmasking Illusions: Understanding Human Perception of Audiovisual Deepfakes [49.81915942821647]
本研究は,ディープフェイク映像を主観的研究により識別する人間の能力を評価することを目的とする。
人間の観察者を5つの最先端オーディオ視覚深度検出モデルと比較することにより,その知見を提示する。
同じ40の動画で評価すると、すべてのAIモデルは人間より優れていることが分かりました。
論文 参考訳(メタデータ) (2024-05-07T07:57:15Z) - NTIRE 2024 Quality Assessment of AI-Generated Content Challenge [141.37864527005226]
課題は、イメージトラックとビデオトラックに分けられる。
両トラックの勝利法はAIGCの予測性能に優れていた。
論文 参考訳(メタデータ) (2024-04-25T15:36:18Z) - AIGCs Confuse AI Too: Investigating and Explaining Synthetic Image-induced Hallucinations in Large Vision-Language Models [37.04195231708092]
我々は、AI合成画像によるLVLM(Large Vision-Language Models)の悪化する幻覚現象を強調した。
注目すべきは、AIGC textbfhallucination biasに光を当てることである: 合成画像によって誘導される物体幻覚は、より多い量で特徴づけられる。
我々は,Q-formerとLinearプロジェクタについて検討した結果,合成画像は視覚投射後のトークン偏差を呈し,幻覚バイアスを増幅することがわかった。
論文 参考訳(メタデータ) (2024-03-13T13:56:34Z) - AI-Generated Images as Data Source: The Dawn of Synthetic Era [61.879821573066216]
生成AIは、現実世界の写真によく似た合成画像を作成する可能性を解き放った。
本稿では、これらのAI生成画像を新しいデータソースとして活用するという革新的な概念を探求する。
実際のデータとは対照的に、AI生成データには、未整合のアブリダンスやスケーラビリティなど、大きなメリットがある。
論文 参考訳(メタデータ) (2023-10-03T06:55:19Z) - TWIGMA: A dataset of AI-Generated Images with Metadata From Twitter [29.77283532841167]
TWIGMAは,2021年1月から2023年3月までに収集された800,000以上のgen-AI画像を含むデータセットである。
その結果,gen-AI画像には特徴があり,非gen-AI画像と比較すると,平均的,低変動性を示すことがわかった。
われわれは、Twitter上でAI生成画像のテーマの経年変化を観察し、ユーザーは芸術的に洗練されたコンテンツをますます共有している。
論文 参考訳(メタデータ) (2023-06-14T07:27:57Z) - Seeing is not always believing: Benchmarking Human and Model Perception
of AI-Generated Images [66.20578637253831]
人工知能(AI)技術の進歩が偽写真を生み出すのではないかという懸念が高まっている。
本研究の目的は、最先端のAI生成視覚コンテンツを識別するためのエージェントを包括的に評価することである。
論文 参考訳(メタデータ) (2023-04-25T17:51:59Z) - Explainable AI for Natural Adversarial Images [4.387699521196243]
人間は、AIの決定プロセスが自分自身を反映していると仮定する傾向があります。
ここでは、説明可能なAIの手法がこの仮定を破り、参加者が敵画像と標準画像のAI分類を予測するのに役立つかどうかを評価する。
正当性マップと実例の両方がAIエラーのキャッチを容易にするが、その効果は加法的ではなく、正当性マップは実例よりも効果的である。
論文 参考訳(メタデータ) (2021-06-16T20:19:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。