論文の概要: Conditional Uncertainty-Aware Political Deepfake Detection with Stochastic Convolutional Neural Networks
- arxiv url: http://arxiv.org/abs/2602.10343v1
- Date: Tue, 10 Feb 2026 22:31:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-12 21:44:01.316398
- Title: Conditional Uncertainty-Aware Political Deepfake Detection with Stochastic Convolutional Neural Networks
- Title(参考訳): 確率的畳み込みニューラルネットワークを用いた条件不確実性を考慮した政治ディープフェイク検出
- Authors: Rafael-Petruţ Gardoş,
- Abstract要約: 生成画像モデルは、非常に現実的な政治的ディープフェイクの作成を可能にし、情報の完全性、公的な信頼、民主的なプロセスにリスクを及ぼす。
自動ディープフェイク検出器は、モデレーションと探索パイプラインにますます配備されているが、既存のシステムの多くは点予測のみを提供し、出力が信頼できないことを示さない。
本研究では,畳み込みニューラルネットワークを用いた条件付き,不確実性を考慮した政治的ディープフェイク検出を,経験的,意思決定指向の信頼性フレームワーク内で検討する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advances in generative image models have enabled the creation of highly realistic political deepfakes, posing risks to information integrity, public trust, and democratic processes. While automated deepfake detectors are increasingly deployed in moderation and investigative pipelines, most existing systems provide only point predictions and fail to indicate when outputs are unreliable, being an operationally critical limitation in high-stakes political contexts. This work investigates conditional, uncertainty-aware political deepfake detection using stochastic convolutional neural networks within an empirical, decision-oriented reliability framework. Rather than treating uncertainty as a purely Bayesian construct, it is evaluated through observable criteria, including calibration quality, proper scoring rules, and its alignment with prediction errors under both global and confidence-conditioned analyses. A politically focused binary image dataset is constructed via deterministic metadata filtering from a large public real-synthetic corpus. Two pretrained CNN backbones (ResNet-18 and EfficientNet-B4) are fully fine-tuned for classification. Deterministic inference is compared with single-pass stochastic prediction, Monte Carlo dropout with multiple forward passes, temperature scaling, and ensemble-based uncertainty surrogates. Evaluation reports ROC-AUC, thresholded confusion matrices, calibration metrics, and generator-disjoint out-of-distribution performance. Results demonstrate that calibrated probabilistic outputs and uncertainty estimates enable risk-aware moderation policies. A systematic confidence-band analysis further clarifies when uncertainty provides operational value beyond predicted confidence, delineating both the benefits and limitations of uncertainty-aware deepfake detection in political settings.
- Abstract(参考訳): 生成画像モデルの最近の進歩は、情報整合性、公的な信頼、民主的プロセスにリスクを及ぼす、非常に現実的な政治ディープフェイクの創出を可能にしている。
自動ディープフェイク検出器は、モデレーションや調査パイプラインにますます配備されているが、既存のシステムの多くは、ポイント予測のみを提供し、出力が信頼できないことを示さない。
本研究では、確率的畳み込みニューラルネットワークを用いた条件付き、不確実性を考慮した政治的深度検出を、経験的、意思決定指向の信頼性フレームワーク内で検討する。
不確実性を純粋にベイズ的な構成として扱うのではなく、キャリブレーション品質、適切なスコアリングルール、および大域的および信頼性のある解析の下での予測誤差との整合性など、観測可能な基準で評価する。
政治的に焦点をあてたバイナリ画像データセットは、大規模なパブリックな実合成コーパスから決定論的メタデータフィルタリングによって構築される。
事前訓練された2つのCNNバックボーン(ResNet-18とEfficientNet-B4)は、分類のために完全に微調整されている。
決定論的推論は、単一パス確率予測、複数の前方パスを持つモンテカルロのドロップアウト、温度スケーリング、アンサンブルに基づく不確実性サロゲートと比較される。
ROC-AUC, しきい値の混乱行列, キャリブレーション測定値, および発電機連系アウト・オブ・ディストリビューション性能の評価報告
その結果, キャリブレーションされた確率出力と不確実性推定により, リスク認識型モデレーションポリシが実現された。
系統的信頼バンド分析は、不確実性が予測された信頼を超えて運用価値を提供する場合をさらに明確化し、政治的設定における不確実性に配慮したディープフェイク検出の利点と限界の両方を列挙する。
関連論文リスト
- Decision-Aware Trust Signal Alignment for SOC Alert Triage [0.0]
本稿では,SOC警告トリアージの信頼信号対応方式を提案する。
このフレームワークは、調整済みの信頼性、軽量不確実性、そしてコストに敏感な決定しきい値をコヒーレントな決定支持層に組み合わせている。
信頼度が不一致な表示によって偽陰性が大幅に増幅されるのに対し、コスト重み付き損失は決定整合信頼信号を持つモデル間での桁違いに減少することを示す。
論文 参考訳(メタデータ) (2026-01-08T01:41:54Z) - Revisiting Multivariate Time Series Forecasting with Missing Values [65.30332997607141]
現実の時系列では欠落値が一般的である。
現在のアプローチでは、計算モジュールを使用して、不足した値を補う、計算済みの予測フレームワークが開発されている。
このフレームワークは、致命的な問題を見落としている: 欠落した値に対して基礎的な真理は存在せず、予測精度を劣化させる可能性のあるエラーの影響を受けやすいようにしている。
本稿では,Information Bottleneck原則に基づく新しいフレームワークであるConsistency-Regularized Information Bottleneck(CRIB)を紹介する。
論文 参考訳(メタデータ) (2025-09-27T20:57:48Z) - Lightweight, Uncertainty-Aware Conformalized Visual Odometry [2.429910016019183]
データ駆動型ビジュアルオドメトリー(VO)は、自律エッジロボティクスにとって重要なサブルーチンである。
昆虫スケールドローンや外科ロボットのような最先端ロボットデバイスは、VOの予測の不確実性を推定する計算的に効率的な枠組みを欠いている。
本稿では,共形推論(CI)を利用してVOの不確実な帯域を抽出する,新しい,軽量で統計的に堅牢なフレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-03T20:37:55Z) - Reliability-Aware Prediction via Uncertainty Learning for Person Image
Retrieval [51.83967175585896]
UALは、データ不確実性とモデル不確実性を同時に考慮し、信頼性に配慮した予測を提供することを目的としている。
データ不確実性はサンプル固有のノイズを捕捉する」一方、モデル不確実性はサンプルの予測に対するモデルの信頼を表現している。
論文 参考訳(メタデータ) (2022-10-24T17:53:20Z) - Training Uncertainty-Aware Classifiers with Conformalized Deep Learning [7.837881800517111]
ディープニューラルネットワークは、データ内の隠れパターンを検出し、それらを活用して予測する強力なツールであるが、不確実性を理解するように設計されていない。
我々は予測力を犠牲にすることなく、より信頼性の高い不確実性推定を導出できる新しいトレーニングアルゴリズムを開発した。
論文 参考訳(メタデータ) (2022-05-12T05:08:10Z) - CertainNet: Sampling-free Uncertainty Estimation for Object Detection [65.28989536741658]
ニューラルネットワークの不確実性を推定することは、安全クリティカルな設定において基本的な役割を果たす。
本研究では,オブジェクト検出のための新しいサンプリング不要不確実性推定法を提案する。
私たちはそれをCertainNetと呼び、各出力信号に対して、オブジェクト性、クラス、位置、サイズという、別の不確実性を提供するのは、これが初めてです。
論文 参考訳(メタデータ) (2021-10-04T17:59:31Z) - Gradient-Based Quantification of Epistemic Uncertainty for Deep Object
Detectors [8.029049649310213]
本稿では,新しい勾配に基づく不確実性指標を導入し,異なる物体検出アーキテクチャについて検討する。
実験では、真の肯定的/偽の正の判別と、結合上の交叉の予測において顕著な改善が示された。
また,モンテカルロのドロップアウト不確実性指標に対する改善や,さまざまな不確実性指標のソースを集約することで,さらなる大幅な向上が期待できる。
論文 参考訳(メタデータ) (2021-07-09T16:04:11Z) - An Uncertainty Estimation Framework for Probabilistic Object Detection [5.83620245905973]
本稿では,物体検出における不確実性を推定する2つの一般的な手法を組み合わせた新しい手法を提案する。
我々のフレームワークは、予測の不確実性を近似するために、深いアンサンブルとモンテカルロのドロップアウトを利用する。
論文 参考訳(メタデータ) (2021-06-28T22:29:59Z) - Approaching Neural Network Uncertainty Realism [53.308409014122816]
自動運転車などの安全クリティカルなシステムには、定量化または少なくとも上限の不確実性が不可欠です。
マハラノビス距離に基づく統計的テストにより、厳しい品質基準である不確実性リアリズムを評価します。
自動車分野に採用し、プレーンエンコーダデコーダモデルと比較して、不確実性リアリズムを大幅に改善することを示した。
論文 参考訳(メタデータ) (2021-01-08T11:56:12Z) - Uncertainty-Aware Deep Calibrated Salient Object Detection [74.58153220370527]
既存のディープニューラルネットワークに基づくサルエントオブジェクト検出(SOD)手法は主に高いネットワーク精度の追求に重点を置いている。
これらの手法は、信頼不均衡問題として知られるネットワーク精度と予測信頼の間のギャップを見落としている。
我々は,不確実性を考慮した深部SODネットワークを導入し,深部SODネットワークの過信を防止するための2つの戦略を提案する。
論文 参考訳(メタデータ) (2020-12-10T23:28:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。