論文の概要: On Addressing the Impact of ISO Speed upon PRNU and Forgery Detection
- arxiv url: http://arxiv.org/abs/2006.11539v1
- Date: Sat, 20 Jun 2020 10:23:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-18 23:03:01.232420
- Title: On Addressing the Impact of ISO Speed upon PRNU and Forgery Detection
- Title(参考訳): PRNUと偽造検出におけるISO速度の影響について
- Authors: Yijun Quan and Chang-Tsun Li
- Abstract要約: Photo Response Non-Uniformity (PRNU) は画像偽造検出のための強力なデバイス指紋として使われている。
本研究は,ISO速度に対するPRNU相関の依存性を示す。
- 参考スコア(独自算出の注目度): 22.488536453952957
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Photo Response Non-Uniformity (PRNU) has been used as a powerful device
fingerprint for image forgery detection because image forgeries can be revealed
by finding the absence of the PRNU in the manipulated areas. The correlation
between an image's noise residual with the device's reference PRNU is often
compared with a decision threshold to check the existence of the PRNU. A PRNU
correlation predictor is usually used to determine this decision threshold
assuming the correlation is content-dependent. However, we found that not only
the correlation is content-dependent, but it also depends on the camera
sensitivity setting. \textit{Camera sensitivity}, commonly known by the name of
\textit{ISO speed}, is an important attribute in digital photography. In this
work, we will show the PRNU correlation's dependency on ISO speed. Due to such
dependency, we postulate that a correlation predictor is ISO speed-specific,
i.e. \textit{reliable correlation predictions can only be made when a
correlation predictor is trained with images of similar ISO speeds to the image
in question}. We report the experiments we conducted to validate the postulate.
It is realized that in the real-world, information about the ISO speed may not
be available in the metadata to facilitate the implementation of our postulate
in the correlation prediction process. We hence propose a method called
Content-based Inference of ISO Speeds (CINFISOS) to infer the ISO speed from
the image content.
- Abstract(参考訳): Photo Response Non-Uniformity (PRNU) は画像偽造検出のための強力なデバイス指紋として使われてきた。
画像のノイズ残差とデバイスの参照PRNUとの相関は、PRNUの存在を確認するための決定しきい値と比較されることが多い。
prnu相関予測器は、通常、その相関が内容に依存すると仮定してこの決定しきい値を決定するために使用される。
しかし,相関は内容に依存しているだけでなく,カメラの感度設定にも依存することがわかった。
デジタル写真において, \textit{iso speed} という名称で知られる \textit{camera sensitivity} は重要な属性である。
本研究は,ISO速度に対するPRNU相関の依存性を示す。
このような依存関係のため、相関予測器がISO速度固有であること、すなわち、相関予測器が問題の画像と類似したISO速度の画像で訓練された場合にのみ、 \textit{reliable correlation predictionが作成可能であることを仮定する。
仮定を検証するために実施した実験を報告する。
実世界では、相関予測プロセスにおける仮定の実装を容易にするために、メタデータ内でISO速度に関する情報が得られないことが判明した。
そこで我々は,CINFISOS (Content-based Inference of ISO Speeds) という手法を提案し,画像コンテンツからISO速度を推定する。
関連論文リスト
- CSIM: A Copula-based similarity index sensitive to local changes for Image quality assessment [2.3874115898130865]
画像類似度メトリクスは、画像処理、コンピュータビジョン、機械学習で使用されるため、コンピュータビジョンアプリケーションにおいて重要な役割を果たす。
PSNR、MSE、SSIM、ISSM、FSIMといった既存のメトリクスは、画像の小さな変更に対する速度、複雑さ、感度のいずれにおいても制限に直面していることが多い。
本稿では,画像の微妙な変化に敏感でありながらリアルタイムに組み合わせた新しい画像類似度指標CSIMについて検討する。
論文 参考訳(メタデータ) (2024-10-02T10:46:05Z) - Annotation Cost-Efficient Active Learning for Deep Metric Learning Driven Remote Sensing Image Retrieval [3.2109665109975696]
ANNEALは、類似した、異種のイメージペアで構成された、小さくて情報的なトレーニングセットを作成することを目的としている。
不確実性と多様性の基準を組み合わせることにより、画像対の情報性を評価する。
このアノテート方式は、ランド・ユース・ランド・カバー・クラスラベルによるアノテート画像と比較して、アノテーションコストを著しく削減する。
論文 参考訳(メタデータ) (2024-06-14T15:08:04Z) - On the Identification of Temporally Causal Representation with Instantaneous Dependence [50.14432597910128]
時間的因果表現学習は時系列観測から潜在因果過程を特定することを目的としている。
ほとんどの方法は、潜在因果過程が即時関係を持たないという仮定を必要とする。
我々は,インスタントtextbfOus textbfLatent dynamics のための textbfIDentification フレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-24T08:08:05Z) - Mitigating LLM Hallucinations via Conformal Abstention [70.83870602967625]
我々は,大言語モデルが一般ドメインでの応答をいつ無視すべきかを決定するための,原則化された手順を開発する。
我々は、幻覚率(エラー率)の厳密な理論的保証の恩恵を受けるため、共形予測手法を活用して、禁忌手順を開発する。
実験によって得られた共形禁忌法は, 種々の閉書, オープンドメイン生成質問応答データセットに, 幻覚率を確実に拘束する。
論文 参考訳(メタデータ) (2024-04-04T11:32:03Z) - FS-BAND: A Frequency-Sensitive Banding Detector [55.59101150019851]
バンディング・アーティファクト(Banding artifact)は、階段のような輪郭(contour)として知られ、圧縮や伝達などで発生する一般的な品質の不快さである。
周波数感度バンディング検出器 (FS-BAND) と呼ばれる,帯状アーティファクトを捕捉・評価するための非参照帯状検出モデルを提案する。
実験結果から,FS-BAND法は画像品質評価(IQA)手法よりもバンドリング分類タスクの精度が高い結果を得た。
論文 参考訳(メタデータ) (2023-11-30T03:20:42Z) - Introspective Deep Metric Learning [91.47907685364036]
本稿では,不確実性を考慮した画像比較のためのイントロスペクティブな深度学習フレームワークを提案する。
提案するIDMLフレームワークは,不確実性モデリングによるディープメトリック学習の性能を向上させる。
論文 参考訳(メタデータ) (2023-09-11T16:21:13Z) - Improving Adversarial Robustness of Masked Autoencoders via Test-time
Frequency-domain Prompting [133.55037976429088]
BERTプリトレーニング(BEiT, MAE)を備えた視覚変換器の対向ロバスト性について検討する。
意外な観察は、MAEが他のBERT事前訓練法よりも敵の頑健さが著しく悪いことである。
我々は,MAEの対角的堅牢性を高めるための,シンプルで効果的な方法を提案する。
論文 参考訳(メタデータ) (2023-08-20T16:27:17Z) - Advancing Unsupervised Low-light Image Enhancement: Noise Estimation, Illumination Interpolation, and Self-Regulation [55.07472635587852]
低光画像強調(LLIE)技術は、画像の詳細の保存とコントラストの強化に顕著な進歩をもたらした。
これらのアプローチは、動的ノイズを効率的に緩和し、様々な低照度シナリオを収容する上で、永続的な課題に直面する。
まず,低照度画像の雑音レベルを迅速かつ高精度に推定する方法を提案する。
次に、照明と入力の一般的な制約を満たすために、Learningable Illumination Interpolator (LII) を考案する。
論文 参考訳(メタデータ) (2023-05-17T13:56:48Z) - A comparison study of CNN denoisers on PRNU extraction [10.517110532297021]
我々は,コナールニューラルネットワーク(CNN)を用いたPRNU抽出の最新の成果を生かしている。
本稿では,一般の「ドレスデン画像データベース」上で,これらのCNNによるSCI性能の比較評価を行った。
論文 参考訳(メタデータ) (2021-12-06T08:28:59Z) - Higher-Order Photon Statistics as a New Tool to Reveal Hidden Excited
States in a Plasmonic Cavity [0.0]
本稿では,C_textF,m$の因子積に基づく相関関数の評価手法を提案する。
我々は,新しい評価手法を用いて,単一量子ドットに結合したプラズモニックキャビティの光子放射を分析する。
論文 参考訳(メタデータ) (2021-12-04T00:35:29Z) - Beyond PRNU: Learning Robust Device-Specific Fingerprint for Source
Camera Identification [14.404497406560104]
元のカメラ識別ツールは、画像鑑定調査員が被疑者カメラと画像を関連付けるのを助ける。
光応答不均一 (PRNU) ノイズパターンは, センサの不完全性に起因するため, ソースカメラの識別に有効な方法であることが証明されている。
PRNUは、カメラの設定、画像の内容、画像処理操作、および反法医学的攻撃に影響を受けやすい。
この新しいデバイス指紋は低周波帯と中周波帯から抽出され、PRNUが競合できない脆弱性を解消する。
論文 参考訳(メタデータ) (2021-11-03T11:25:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。