論文の概要: Security Benefits and Side Effects of Labeling AI-Generated Images
- arxiv url: http://arxiv.org/abs/2505.22845v1
- Date: Wed, 28 May 2025 20:24:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-30 18:14:07.526776
- Title: Security Benefits and Side Effects of Labeling AI-Generated Images
- Title(参考訳): AI生成画像のラベル付けによるセキュリティ効果と副作用
- Authors: Sandra Höltervennhoff, Jonas Ricker, Maike M. Raphael, Charlotte Schwedes, Rebecca Weil, Asja Fischer, Thorsten Holz, Lea Schönherr, Sascha Fahl,
- Abstract要約: ラベルの意味について検討し,誤ラベルの可能性についても検討した。
我々は1300人以上の米国とEU参加者による事前登録されたオンライン調査を実施している。
我々は,不正確な主張を伝達する人造画像がラベルの存在下でより信頼性が高いと認識されるという,望ましくない副作用を見出した。
- 参考スコア(独自算出の注目度): 27.771584371064968
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative artificial intelligence is developing rapidly, impacting humans' interaction with information and digital media. It is increasingly used to create deceptively realistic misinformation, so lawmakers have imposed regulations requiring the disclosure of AI-generated content. However, only little is known about whether these labels reduce the risks of AI-generated misinformation. Our work addresses this research gap. Focusing on AI-generated images, we study the implications of labels, including the possibility of mislabeling. Assuming that simplicity, transparency, and trust are likely to impact the successful adoption of such labels, we first qualitatively explore users' opinions and expectations of AI labeling using five focus groups. Second, we conduct a pre-registered online survey with over 1300 U.S. and EU participants to quantitatively assess the effect of AI labels on users' ability to recognize misinformation containing either human-made or AI-generated images. Our focus groups illustrate that, while participants have concerns about the practical implementation of labeling, they consider it helpful in identifying AI-generated images and avoiding deception. However, considering security benefits, our survey revealed an ambiguous picture, suggesting that users might over-rely on labels. While inaccurate claims supported by labeled AI-generated images were rated less credible than those with unlabeled AI-images, the belief in accurate claims also decreased when accompanied by a labeled AI-generated image. Moreover, we find the undesired side effect that human-made images conveying inaccurate claims were perceived as more credible in the presence of labels.
- Abstract(参考訳): 生成的人工知能は、情報とデジタルメディアとの人間の相互作用に影響を与え、急速に発展している。
視覚的にリアルな誤報を生み出すのにますます使われているため、議会はAI生成コンテンツの開示を要求する規制を課している。
しかし、これらのラベルがAIが生成した誤報のリスクを減少させるかどうかについてはほとんど分かっていない。
私たちの仕事はこの研究のギャップに対処する。
本稿では,AI生成画像に着目し,ラベルの意味について検討する。
単純さ、透明性、信頼が、そのようなラベルの採用の成功に影響を与える可能性が高いと仮定すると、私たちはまず5つのフォーカスグループを使用して、AIラベルのユーザの意見と期待を質的に探求します。
第2に、米国とEUの参加者1300人以上の事前登録されたオンライン調査を実施し、AIラベルが、人間が作成した画像またはAI生成画像を含む誤情報を認識する能力に与える影響を定量的に評価する。
我々の焦点グループは、参加者がラベリングの実践的な実装に懸念を抱いている一方で、AI生成画像の特定と偽造の回避に有効であると考えていることを示しています。
しかし,セキュリティ上のメリットを考慮すると,この調査では曖昧なイメージが明らかとなり,ラベルを過剰に活用する可能性が示唆された。
ラベル付きAI生成画像が支持する不正確なクレームは、ラベル付きAI生成画像に付随して正確なクレームの信念も低下した。
さらに,不正確な主張を伝達する人造画像がラベルの存在下でより信頼性が高いと認識されるという,望ましくない副作用も見いだされた。
関連論文リスト
- Almost AI, Almost Human: The Challenge of Detecting AI-Polished Writing [55.2480439325792]
本研究では、AI-Polished-Text Evaluationデータセットを用いて、12の最先端AIテキスト検出器を体系的に評価する。
我々の発見によると、検出器は、最小限に洗練されたテキストをAI生成としてフラグ付けし、AIの関与度を区別し、古いモデルや小さなモデルに対するバイアスを示す。
論文 参考訳(メタデータ) (2025-02-21T18:45:37Z) - Labeling Synthetic Content: User Perceptions of Warning Label Designs for AI-generated Content on Social Media [16.5125333136211]
我々は,感情,色彩・色調,位置,ディテールの程度によって異なる10種類のラベルデザインサンプルを考案し,評価した。
実験では、これらの10のラベルにランダムに割り当てられた911人の被験者と、ソーシャルメディアの内容を評価する制御グループについて検討した。
その結果、ラベルの存在は、コンテンツがAIによって生成されたり、ディープフェイクされたり、編集されたりする、というユーザの信念に重大な影響を及ぼした。
論文 参考訳(メタデータ) (2025-02-14T10:35:42Z) - Human Bias in the Face of AI: The Role of Human Judgement in AI Generated Text Evaluation [48.70176791365903]
本研究では、偏見がAIと人為的コンテンツの知覚をどう形成するかを考察する。
ラベル付きおよびラベルなしコンテンツに対するヒトのラッカーの反応について検討した。
論文 参考訳(メタデータ) (2024-09-29T04:31:45Z) - Seeing is not always believing: Benchmarking Human and Model Perception
of AI-Generated Images [66.20578637253831]
人工知能(AI)技術の進歩が偽写真を生み出すのではないかという懸念が高まっている。
本研究の目的は、最先端のAI生成視覚コンテンツを識別するためのエージェントを包括的に評価することである。
論文 参考訳(メタデータ) (2023-04-25T17:51:59Z) - Explainable AI for Natural Adversarial Images [4.387699521196243]
人間は、AIの決定プロセスが自分自身を反映していると仮定する傾向があります。
ここでは、説明可能なAIの手法がこの仮定を破り、参加者が敵画像と標準画像のAI分類を予測するのに役立つかどうかを評価する。
正当性マップと実例の両方がAIエラーのキャッチを容易にするが、その効果は加法的ではなく、正当性マップは実例よりも効果的である。
論文 参考訳(メタデータ) (2021-06-16T20:19:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。