論文の概要: Classification of Inkjet Printers based on Droplet Statistics
- arxiv url: http://arxiv.org/abs/2407.09539v1
- Date: Wed, 26 Jun 2024 10:20:01 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-22 13:18:53.336252
- Title: Classification of Inkjet Printers based on Droplet Statistics
- Title(参考訳): 液滴統計に基づくインクジェットプリンタの分類
- Authors: Patrick Takenaka, Manuel Eberhardinger, Daniel Grießhaber, Johannes Maucher,
- Abstract要約: 与えられた文書を印刷するために使用されるプリンタモデルを知ることは、偽造を識別したり、実際の文書の有効性を検証するための重要な手がかりとなるかもしれない。
印刷文書スキャンから抽出した周波数領域の特徴を含む液滴特性を基礎となるプリンタモデルの分類に利用することを検討した。
- 参考スコア(独自算出の注目度): 1.237454174824584
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Knowing the printer model used to print a given document may provide a crucial lead towards identifying counterfeits or conversely verifying the validity of a real document. Inkjet printers produce probabilistic droplet patterns that appear to be distinct for each printer model and as such we investigate the utilization of droplet characteristics including frequency domain features extracted from printed document scans for the classification of the underlying printer model. We collect and publish a dataset of high resolution document scans and show that our extracted features are informative enough to enable a neural network to distinguish not only the printer manufacturer, but also individual printer models.
- Abstract(参考訳): 与えられた文書を印刷するために使用されるプリンタモデルを知ることは、偽造を識別したり、実際の文書の有効性を逆に検証するための決定的な手がかりとなるかもしれない。
インクジェットプリンタは, 各プリンタモデルごとに異なるように見える確率的液滴パターンを生成し, 印刷文書スキャンから抽出した周波数領域の特徴を含む液滴特性を利用して, 基礎となるプリンタモデルの分類を行う。
我々は、高解像度文書スキャンのデータセットを収集して公開し、抽出した特徴が、ニューラルネットワークがプリンタメーカーだけでなく、個々のプリンタモデルも識別できるようにするのに十分な情報であることを示す。
関連論文リスト
- 3D object quality prediction for Metal Jet Printer with Multimodal thermal encoder [46.85584046139531]
金属印刷における様々な要因は、印刷部品の品質に影響を及ぼす。
HPのMetJet印刷プロセスから収集された膨大なデータを使って、AI技術を使用して、印刷された部分品質メトリクスを分析し、学習し、効果的に推測することができる。
論文 参考訳(メタデータ) (2024-04-17T21:57:29Z) - LCM-Lookahead for Encoder-based Text-to-Image Personalization [82.56471486184252]
我々は,テキスト・ツー・イメージ・モデルのパーソナライズを導くために,ショートカット・メカニズムを利用する可能性を探る。
エンコーダをベースとしたパーソナライズ手法に焦点をあてて、ルックアヘッドのアイデンティティ損失を調整することで、より高いアイデンティティの忠実性を達成できることを実証する。
論文 参考訳(メタデータ) (2024-04-04T17:43:06Z) - Improving and Evaluating Machine Learning Methods for Forensic Shoeprint Matching [0.2509487459755192]
法医学的な靴紋パターンマッチングのための機械学習パイプラインを提案する。
エッジ検出による2次元画像から2次元座標を抽出し, 反復的最近点(ICP)と整列する。
次に、類似度指標を抽出し、2つの印刷物がどれだけうまく一致しているかを定量化し、これらの指標を用いてランダムな森林を訓練する。
論文 参考訳(メタデータ) (2024-04-02T15:24:25Z) - Contrastive Attention Networks for Attribution of Early Modern Print [23.344655278038392]
本研究では,1500年~1800年(1500年~1800年)の英語印刷において,未知のプリンタを識別する機械学習技術を開発した。
具体的には、匿名で印刷された書籍において、一意に破損した文字タイプインプリントと、既知のプリンタと連携することに焦点を当てる。
論文 参考訳(メタデータ) (2023-06-12T19:57:11Z) - Sampling and Ranking for Digital Ink Generation on a tight computational
budget [69.15275423815461]
トレーニングされたデジタルインク生成モデルの出力品質を最大化する方法について検討する。
我々は、デジタルインク領域におけるその種類に関する最初のアブレーション研究において、複数のサンプリングとランキング手法の効果を使用、比較する。
論文 参考訳(メタデータ) (2023-06-02T09:55:15Z) - Watermarking for Out-of-distribution Detection [76.20630986010114]
Out-of-Distribution (OOD) 検出は、よく訓練された深層モデルから抽出された表現に基づいてOODデータを識別することを目的としている。
本稿では,透かしという一般的な手法を提案する。
我々は,元データの特徴に重畳される統一パターンを学習し,ウォーターマーキング後にモデルの検出能力が大きく向上する。
論文 参考訳(メタデータ) (2022-10-27T06:12:32Z) - Incorporating Vision Bias into Click Models for Image-oriented Search
Engine [51.192784793764176]
本論文では,画像指向検索エンジンに視覚バイアスが存在することを,位置以外の検査確率に影響する重要な要因と仮定する。
候補文書から抽出した視覚特徴から視覚バイアスを予測するために回帰型emアルゴリズムを用いた。
論文 参考訳(メタデータ) (2021-01-07T10:01:31Z) - Responsible Disclosure of Generative Models Using Scalable
Fingerprinting [70.81987741132451]
深層生成モデルは質的に新しいパフォーマンスレベルを達成した。
この技術がスプーフセンサーに誤用され、ディープフェイクを発生させ、大規模な誤情報を可能にするという懸念がある。
最先端のジェネレーションモデルを責任を持って公開することで、研究者や企業がモデルに指紋を刻むことができます。
論文 参考訳(メタデータ) (2020-12-16T03:51:54Z) - Printing and Scanning Attack for Image Counter Forensics [11.193867567895353]
画像の真正性を調べることは、操作ツールがよりアクセスしやすく、進歩するにつれて、ますます重要になっている。
近年の研究では、CNNをベースとした画像検出装置は操作の特定に成功しているが、敵の攻撃にも弱いことが示されている。
我々は、印刷とスキャンという、非常に確実な攻撃方法を探究する。
論文 参考訳(メタデータ) (2020-04-27T00:32:15Z) - Source Printer Identification from Document Images Acquired using
Smartphone [14.889347839830092]
我々は,文字画像とプリンタ固有のノイズ残差の融合から,単一のCNNモデルを学習することを提案する。
提案手法は,5x2クロスバリデーション手法を用いて,文字「e」の画像を用いた98.42%の文書分類精度を実現する。
論文 参考訳(メタデータ) (2020-03-27T18:59:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。