論文の概要: Security Benefits and Side Effects of Labeling AI-Generated Images
- arxiv url: http://arxiv.org/abs/2505.22845v1
- Date: Wed, 28 May 2025 20:24:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-30 18:14:07.526776
- Title: Security Benefits and Side Effects of Labeling AI-Generated Images
- Title(参考訳): AI生成画像のラベル付けによるセキュリティ効果と副作用
- Authors: Sandra Höltervennhoff, Jonas Ricker, Maike M. Raphael, Charlotte Schwedes, Rebecca Weil, Asja Fischer, Thorsten Holz, Lea Schönherr, Sascha Fahl,
- Abstract要約: ラベルの意味について検討し,誤ラベルの可能性についても検討した。
我々は1300人以上の米国とEU参加者による事前登録されたオンライン調査を実施している。
我々は,不正確な主張を伝達する人造画像がラベルの存在下でより信頼性が高いと認識されるという,望ましくない副作用を見出した。
- 参考スコア(独自算出の注目度): 27.771584371064968
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative artificial intelligence is developing rapidly, impacting humans' interaction with information and digital media. It is increasingly used to create deceptively realistic misinformation, so lawmakers have imposed regulations requiring the disclosure of AI-generated content. However, only little is known about whether these labels reduce the risks of AI-generated misinformation. Our work addresses this research gap. Focusing on AI-generated images, we study the implications of labels, including the possibility of mislabeling. Assuming that simplicity, transparency, and trust are likely to impact the successful adoption of such labels, we first qualitatively explore users' opinions and expectations of AI labeling using five focus groups. Second, we conduct a pre-registered online survey with over 1300 U.S. and EU participants to quantitatively assess the effect of AI labels on users' ability to recognize misinformation containing either human-made or AI-generated images. Our focus groups illustrate that, while participants have concerns about the practical implementation of labeling, they consider it helpful in identifying AI-generated images and avoiding deception. However, considering security benefits, our survey revealed an ambiguous picture, suggesting that users might over-rely on labels. While inaccurate claims supported by labeled AI-generated images were rated less credible than those with unlabeled AI-images, the belief in accurate claims also decreased when accompanied by a labeled AI-generated image. Moreover, we find the undesired side effect that human-made images conveying inaccurate claims were perceived as more credible in the presence of labels.
- Abstract(参考訳): 生成的人工知能は、情報とデジタルメディアとの人間の相互作用に影響を与え、急速に発展している。
視覚的にリアルな誤報を生み出すのにますます使われているため、議会はAI生成コンテンツの開示を要求する規制を課している。
しかし、これらのラベルがAIが生成した誤報のリスクを減少させるかどうかについてはほとんど分かっていない。
私たちの仕事はこの研究のギャップに対処する。
本稿では,AI生成画像に着目し,ラベルの意味について検討する。
単純さ、透明性、信頼が、そのようなラベルの採用の成功に影響を与える可能性が高いと仮定すると、私たちはまず5つのフォーカスグループを使用して、AIラベルのユーザの意見と期待を質的に探求します。
第2に、米国とEUの参加者1300人以上の事前登録されたオンライン調査を実施し、AIラベルが、人間が作成した画像またはAI生成画像を含む誤情報を認識する能力に与える影響を定量的に評価する。
我々の焦点グループは、参加者がラベリングの実践的な実装に懸念を抱いている一方で、AI生成画像の特定と偽造の回避に有効であると考えていることを示しています。
しかし,セキュリティ上のメリットを考慮すると,この調査では曖昧なイメージが明らかとなり,ラベルを過剰に活用する可能性が示唆された。
ラベル付きAI生成画像が支持する不正確なクレームは、ラベル付きAI生成画像に付随して正確なクレームの信念も低下した。
さらに,不正確な主張を伝達する人造画像がラベルの存在下でより信頼性が高いと認識されるという,望ましくない副作用も見いだされた。
関連論文リスト
- AI labeling reduces the perceived accuracy of online content but has limited broader effects [0.0]
提案する公開ポリシーに関するニュース記事の明示的なAIラベル付けは,その認識精度を低下させることを示す。
AIラベリングはポリシーへの関心を減少させるが、ポリシーへの支持に影響せず、オンラインの誤情報に対する一般的な懸念も引き起こさない。
論文 参考訳(メタデータ) (2025-06-19T10:32:52Z) - RAID: A Dataset for Testing the Adversarial Robustness of AI-Generated Image Detectors [57.81012948133832]
本稿では,72kの多種多様かつ高い変換可能な対向例からなるRAID(Robust Evaluation of AI- generated Image Detectors)を提案する。
提案手法は,未知の検出器に高い成功率で転送する逆画像を生成する。
以上の結果から,現在最先端のAI生成画像検出器は,敵の例によって容易に認識できることが示唆された。
論文 参考訳(メタデータ) (2025-06-04T14:16:00Z) - Adoption of Watermarking Measures for AI-Generated Content and Implications under the EU AI Act [4.2125200966193885]
本稿では,画像生成に広く用いられている50のAIシステムを,AI法の法的解析に組み込んだ実証分析を行う。
現在、適切な透かしとディープフェイクラベリングを実装しているAIイメージジェネレータは少数に過ぎません。
論文 参考訳(メタデータ) (2025-03-23T17:55:33Z) - Almost AI, Almost Human: The Challenge of Detecting AI-Polished Writing [55.2480439325792]
本研究では、AI-Polished-Text Evaluationデータセットを用いて、12の最先端AIテキスト検出器を体系的に評価する。
我々の発見によると、検出器は、最小限に洗練されたテキストをAI生成としてフラグ付けし、AIの関与度を区別し、古いモデルや小さなモデルに対するバイアスを示す。
論文 参考訳(メタデータ) (2025-02-21T18:45:37Z) - Labeling Synthetic Content: User Perceptions of Warning Label Designs for AI-generated Content on Social Media [16.5125333136211]
我々は,感情,色彩・色調,位置,ディテールの程度によって異なる10種類のラベルデザインサンプルを考案し,評価した。
実験では、これらの10のラベルにランダムに割り当てられた911人の被験者と、ソーシャルメディアの内容を評価する制御グループについて検討した。
その結果、ラベルの存在は、コンテンツがAIによって生成されたり、ディープフェイクされたり、編集されたりする、というユーザの信念に重大な影響を及ぼした。
論文 参考訳(メタデータ) (2025-02-14T10:35:42Z) - Detecting Discrepancies Between AI-Generated and Natural Images Using Uncertainty [91.64626435585643]
本稿では,誤用と関連するリスクを軽減するために,予測不確実性を利用してAI生成画像を検出する新しい手法を提案する。
この動機は、自然画像とAI生成画像の分布差に関する基本的な仮定から生じる。
本稿では,AI生成画像の検出スコアとして,大規模事前学習モデルを用いて不確実性を計算することを提案する。
論文 参考訳(メタデータ) (2024-12-08T11:32:25Z) - Human Bias in the Face of AI: The Role of Human Judgement in AI Generated Text Evaluation [48.70176791365903]
本研究では、偏見がAIと人為的コンテンツの知覚をどう形成するかを考察する。
ラベル付きおよびラベルなしコンテンツに対するヒトのラッカーの反応について検討した。
論文 参考訳(メタデータ) (2024-09-29T04:31:45Z) - DeepfakeArt Challenge: A Benchmark Dataset for Generative AI Art Forgery and Data Poisoning Detection [57.51313366337142]
悪意ある目的のために生成的AIを使用することについて懸念が高まっている。
生成AIを用いた視覚コンテンツ合成の領域では、画像偽造とデータ中毒が重要な関心事となっている。
DeepfakeArt Challenge(ディープフェイクアートチャレンジ)は、AIアートのジェネレーションとデータ中毒検出のための機械学習アルゴリズムの構築を支援するために設計された、大規模なチャレンジベンチマークデータセットである。
論文 参考訳(メタデータ) (2023-06-02T05:11:27Z) - Seeing is not always believing: Benchmarking Human and Model Perception
of AI-Generated Images [66.20578637253831]
人工知能(AI)技術の進歩が偽写真を生み出すのではないかという懸念が高まっている。
本研究の目的は、最先端のAI生成視覚コンテンツを識別するためのエージェントを包括的に評価することである。
論文 参考訳(メタデータ) (2023-04-25T17:51:59Z) - Explainable AI for Natural Adversarial Images [4.387699521196243]
人間は、AIの決定プロセスが自分自身を反映していると仮定する傾向があります。
ここでは、説明可能なAIの手法がこの仮定を破り、参加者が敵画像と標準画像のAI分類を予測するのに役立つかどうかを評価する。
正当性マップと実例の両方がAIエラーのキャッチを容易にするが、その効果は加法的ではなく、正当性マップは実例よりも効果的である。
論文 参考訳(メタデータ) (2021-06-16T20:19:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。