論文の概要: OSCAR-Net: Object-centric Scene Graph Attention for Image Attribution
- arxiv url: http://arxiv.org/abs/2108.03541v1
- Date: Sat, 7 Aug 2021 23:36:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-11 09:24:00.340249
- Title: OSCAR-Net: Object-centric Scene Graph Attention for Image Attribution
- Title(参考訳): OSCAR-Net:画像属性に対するオブジェクト中心のシーングラフアテンション
- Authors: Eric Nguyen, Tu Bui, Vishy Swaminathan, John Collomosse
- Abstract要約: このようなマッチングを行うために,ロバストな画像ハッシュアルゴリズムを提案する。
私たちのハッシュは、微妙で健全な視覚的詳細の操作に敏感です。
私たちの重要な貢献はOSCAR-Netです。これは、視覚領域におけるトランスフォーマーの最近の成功にインスパイアされた、堅牢なイメージハッシュモデルです。
- 参考スコア(独自算出の注目度): 4.240450464137861
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Images tell powerful stories but cannot always be trusted. Matching images
back to trusted sources (attribution) enables users to make a more informed
judgment of the images they encounter online. We propose a robust image hashing
algorithm to perform such matching. Our hash is sensitive to manipulation of
subtle, salient visual details that can substantially change the story told by
an image. Yet the hash is invariant to benign transformations (changes in
quality, codecs, sizes, shapes, etc.) experienced by images during online
redistribution. Our key contribution is OSCAR-Net (Object-centric Scene Graph
Attention for Image Attribution Network); a robust image hashing model inspired
by recent successes of Transformers in the visual domain. OSCAR-Net constructs
a scene graph representation that attends to fine-grained changes of every
object's visual appearance and their spatial relationships. The network is
trained via contrastive learning on a dataset of original and manipulated
images yielding a state of the art image hash for content fingerprinting that
scales to millions of images.
- Abstract(参考訳): 画像は強力な物語を伝えるが、常に信頼できない。
画像と信頼できる情報源(属性)をマッチングすることで、ユーザーはオンラインで遭遇した画像のより深い判断をすることができる。
このようなマッチングを行うためのロバストな画像ハッシュアルゴリズムを提案する。
我々のハッシュは、微妙な視覚的詳細の操作に敏感であり、画像によって語られるストーリーを実質的に変えることができる。
しかし、ハッシュは良性変換(品質、コーデック、サイズ、形状などの変化)に不変である。
オンライン再配布中に イメージで経験しました
私たちの重要なコントリビューションはOSCAR-Net(Object-centric Scene Graph Attention for Image Attribution Network)です。
OSCAR-Netは、各オブジェクトの視覚的外観とその空間的関係のきめ細かい変化に対応するシーングラフ表現を構築する。
ネットワークは、オリジナルおよび操作された画像のデータセット上のコントラスト学習によって訓練され、数百万の画像にスケールするコンテンツフィンガープリントのためのアートイメージハッシュの状態が得られる。
関連論文リスト
- Can Encrypted Images Still Train Neural Networks? Investigating Image Information and Random Vortex Transformation [51.475827684468875]
画像変換時の情報内容の変化を評価するために,画像情報量を測定する新しい枠組みを構築した。
また,Random Vortex Transformationと呼ばれる新しい画像暗号化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-11-25T09:14:53Z) - Human-imperceptible, Machine-recognizable Images [76.01951148048603]
より良い開発AIシステムと、センシティブなトレーニングデータから距離を置くことの間の、ソフトウェアエンジニアに関する大きな対立が露呈している。
画像が暗号化され、人間に認識され、機械に認識される」という、効率的なプライバシー保護学習パラダイムを提案する。
提案手法は,機械が認識可能な情報を保存しながら,暗号化された画像が人間に認識されなくなることを保証できることを示す。
論文 参考訳(メタデータ) (2023-06-06T13:41:37Z) - Diffusion-Based Scene Graph to Image Generation with Masked Contrastive
Pre-Training [112.94542676251133]
画像とのアライメントを直接最適化することで,シーングラフの埋め込みを学習する。
具体的には,シーングラフからグローバル情報とローカル情報の両方を抽出するエンコーダを事前訓練する。
SGDiffと呼ばれる結果の方法は、シーングラフノードと接続を変更することによって生成された画像のセマンティックな操作を可能にする。
論文 参考訳(メタデータ) (2022-11-21T01:11:19Z) - Semantic Image Manipulation Using Scene Graphs [105.03614132953285]
本稿では,星座変更や画像編集を直接監督する必要のないシーングラフネットワークを提案する。
これにより、追加のアノテーションを使わずに、既存の実世界のデータセットからシステムをトレーニングすることができる。
論文 参考訳(メタデータ) (2020-04-07T20:02:49Z) - Watching the World Go By: Representation Learning from Unlabeled Videos [78.22211989028585]
近年の単一画像教師なし表現学習技術は,様々なタスクにおいて顕著な成功を収めている。
本稿では,この自然な拡張を無償で提供することを論じる。
そこで本稿では,ビデオノイズコントラスト推定(Voice Noise Contrastive Estimation)を提案する。
論文 参考訳(メタデータ) (2020-03-18T00:07:21Z) - Learning Transformation-Aware Embeddings for Image Forensics [15.484408315588569]
Image Provenance Analysisは、コンテンツを共有するさまざまな操作されたイメージバージョン間の関係を見つけることを目的としている。
証明分析のための主要なサブプロブレムの1つは、完全なコンテンツを共有したり、ほぼ重複している画像の編集順序である。
本稿では,1つの画像から生成した画像に対して,変換を通じて妥当な順序付けを行うための,新しい深層学習に基づくアプローチを提案する。
論文 参考訳(メタデータ) (2020-01-13T22:01:24Z) - Fine-grained Image-to-Image Transformation towards Visual Recognition [102.51124181873101]
我々は,入力画像の同一性を保った画像を生成するために,微細なカテゴリで画像を変換することを目的としている。
我々は、画像のアイデンティティと非関連要因をアンハングルするために、生成的敵ネットワークに基づくモデルを採用する。
CompCarsとMulti-PIEデータセットの実験では、我々のモデルが生成した画像のアイデンティティを、最先端の画像-画像変換モデルよりもはるかによく保存していることが示された。
論文 参考訳(メタデータ) (2020-01-12T05:26:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。