論文の概要: A Multi-Level Strategy for Deepfake Content Moderation under EU Regulation
- arxiv url: http://arxiv.org/abs/2507.08879v1
- Date: Thu, 10 Jul 2025 08:08:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-15 18:48:21.673782
- Title: A Multi-Level Strategy for Deepfake Content Moderation under EU Regulation
- Title(参考訳): EU規制下のディープフェイクコンテンツモデレーションのためのマルチレベル戦略
- Authors: Max-Paul Förster, Luca Deck, Raimund Weidlich, Niklas Kühl,
- Abstract要約: EUは、AIシステムとオンラインプラットフォームのプロバイダとデプロイ者に対して透明性義務を負った。
これには、生成時にディープフェイクをマークし、共有時にディープフェイクをラベル付けすることが含まれる。
業界や執行基準の欠如は、現在進行中の課題である。
- 参考スコア(独自算出の注目度): 1.6124402884077915
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The growing availability and use of deepfake technologies increases risks for democratic societies, e.g., for political communication on online platforms. The EU has responded with transparency obligations for providers and deployers of Artificial Intelligence (AI) systems and online platforms. This includes marking deepfakes during generation and labeling deepfakes when they are shared. However, the lack of industry and enforcement standards poses an ongoing challenge. Through a multivocal literature review, we summarize methods for marking, detecting, and labeling deepfakes and assess their effectiveness under EU regulation. Our results indicate that individual methods fail to meet regulatory and practical requirements. Therefore, we propose a multi-level strategy combining the strengths of existing methods. To account for the masses of content on online platforms, our multi-level strategy provides scalability and practicality via a simple scoring mechanism. At the same time, it is agnostic to types of deepfake technology and allows for context-specific risk weighting.
- Abstract(参考訳): ディープフェイク技術の普及と利用により、民主主義社会、例えばオンラインプラットフォームにおける政治コミュニケーションのリスクが増大する。
EUは、人工知能(AI)システムとオンラインプラットフォームの提供者とデプロイ者に対する透明性義務を負った。
これには、生成時にディープフェイクをマークし、共有時にディープフェイクをラベル付けすることが含まれる。
しかし、業界や執行基準の欠如は、現在進行中の課題である。
マルチボーカル文献レビューを通じて、ディープフェイクのマーク付け、検出、ラベル付けの方法を要約し、EU規制下での有効性を評価する。
以上の結果から,個々の手法が規制・実践要件を満たしていないことが示唆された。
そこで本研究では,既存手法の強みを組み合わせたマルチレベル戦略を提案する。
オンラインプラットフォーム上でコンテンツが大量にあることを考慮するため、当社のマルチレベル戦略は、単純なスコアリング機構を通じてスケーラビリティと実用性を提供します。
同時に、ディープフェイク技術とは無関係であり、コンテキスト固有のリスク重み付けを可能にしている。
関連論文リスト
- METER: Multi-modal Evidence-based Thinking and Explainable Reasoning -- Algorithm and Benchmark [48.78602579128459]
本稿では,画像,ビデオ,音声,映像コンテンツにまたがる偽造検出のための統合ベンチマークMETERを紹介する。
我々のデータセットは4つのトラックから構成されており、それぞれのトラックは実際のvsフェイク分類だけでなく、エビデンスチェーンに基づく説明も必要である。
論文 参考訳(メタデータ) (2025-07-22T03:42:51Z) - SocialDF: Benchmark Dataset and Detection Model for Mitigating Harmful Deepfake Content on Social Media Platforms [0.13194391758295113]
ソーシャルメディアプラットフォーム上での現実的なディープフェイク課題を反映した、キュレートされたデータセットであるSocialDFを紹介した。
このデータセットは、さまざまなオンラインエコシステムから得られた高忠実度ディープフェイクを含んでいる。
本稿では,音声認識,自動音声書き起こし,マルチエージェントLPMパイプラインを組み合わせた新しい多要素検出手法を提案する。
論文 参考訳(メタデータ) (2025-06-05T19:39:28Z) - Mapping the Regulatory Learning Space for the EU AI Act [0.8987776881291145]
EU AI法は、具体的な執行措置による世界最初の国際的AI規制である。
それは、製品の健康と安全性を規制する既存のEUメカニズムの上に構築されているが、基本的権利を保護するためにそれらを拡張している。
これはAI法の施行における複数の不確実性につながると我々は主張する。
論文 参考訳(メタデータ) (2025-02-27T12:46:30Z) - AILuminate: Introducing v1.0 of the AI Risk and Reliability Benchmark from MLCommons [62.374792825813394]
本稿ではAI製品リスクと信頼性を評価するための業界標準ベンチマークとして,AIluminate v1.0を紹介する。
このベンチマークは、危険、違法、または望ましくない行動を12の危険カテゴリーで引き起こすように設計されたプロンプトに対するAIシステムの抵抗を評価する。
論文 参考訳(メタデータ) (2025-02-19T05:58:52Z) - The Synergy of LLMs & RL Unlocks Offline Learning of Generalizable Language-Conditioned Policies with Low-fidelity Data [50.544186914115045]
TEDUOは、シンボリック環境におけるオフライン言語条件のポリシー学習のための、新しいトレーニングパイプラインである。
まず、オフラインデータセットをよりリッチなアノテーションで拡張する自動化ツールとして、次に、一般化可能な命令フォローエージェントとして使用します。
論文 参考訳(メタデータ) (2024-12-09T18:43:56Z) - Can We Trust AI Agents? A Case Study of an LLM-Based Multi-Agent System for Ethical AI [10.084913433923566]
AIベースのシステムは、多様なタスクをサポートすることによって数百万に影響を及ぼすが、誤情報、偏見、誤用といった問題に直面している。
本研究では,Large Language Models (LLM) を用いたAI倫理の実践について検討する。
エージェントがAIインシデントデータベースから現実のAI倫理問題に関する構造化された議論を行うプロトタイプを設計する。
論文 参考訳(メタデータ) (2024-10-25T20:17:59Z) - Dynamic Analysis and Adaptive Discriminator for Fake News Detection [59.41431561403343]
偽ニュース検出のための動的解析・適応識別器(DAAD)手法を提案する。
知識に基づく手法では,モンテカルロ木探索アルゴリズムを導入し,大規模言語モデルの自己表現能力を活用する。
意味に基づく手法では、偽ニュース生成のメカニズムを明らかにするために、典型的偽造パターンを4つ定義する。
論文 参考訳(メタデータ) (2024-08-20T14:13:54Z) - Examining the Implications of Deepfakes for Election Integrity [9.129491613898962]
AI生成コンテンツ、特に「ディープフェイク」技術を使って、大規模に偽情報操作をローンチするのは、より安価になってきている。
本稿では、政治におけるディープフェイクの脅威について論じ、異なるタイプのディープフェイク生成手法に基づくモデル仕様を強調し、既存の検出手法の有効性の評価に寄与する。
我々は,既存の検知機構の限界を強調し,ディープフェイクの課題に対処するために政策や規制が必要な分野について議論する。
論文 参考訳(メタデータ) (2024-06-20T13:15:54Z) - PolyGlotFake: A Novel Multilingual and Multimodal DeepFake Dataset [7.952304417617302]
音声と視覚の両方を操る マルチモーダル・ディープフェイクは 公衆の懸念を増している
このギャップに対処するために、新しい多言語、多モーダルなディープフェイクデータセット、PolyGlotFakeを提案する。
これには、7つの言語のコンテンツが含まれており、様々な最先端で人気のあるText-to-Speech、音声のクローン、リップシンク技術を使って作成されている。
論文 参考訳(メタデータ) (2024-05-14T06:40:05Z) - Towards Automated Classification of Attackers' TTPs by combining NLP
with ML Techniques [77.34726150561087]
我々は,NLP(Natural Language Processing)と,研究におけるセキュリティ情報抽出に使用される機械学習技術の評価と比較を行った。
本研究では,攻撃者の戦術や手法に従って非構造化テキストを自動的に分類するデータ処理パイプラインを提案する。
論文 参考訳(メタデータ) (2022-07-18T09:59:21Z) - Benchmarks for Deep Off-Policy Evaluation [152.28569758144022]
我々は,政策外の評価のベンチマークに使用できるポリシーの集合を提案する。
私たちのベンチマークの目標は、一連の原則から動機付けられた進歩の標準化された尺度を提供することです。
この領域における今後の研究を促進するために、当社のデータとコードに対するオープンソースアクセスを提供しています。
論文 参考訳(メタデータ) (2021-03-30T18:09:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。