論文の概要: Motif Mining: Finding and Summarizing Remixed Image Content
- arxiv url: http://arxiv.org/abs/2203.08327v1
- Date: Wed, 16 Mar 2022 00:14:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-17 15:23:56.084987
- Title: Motif Mining: Finding and Summarizing Remixed Image Content
- Title(参考訳): Motif Mining:リミックス画像の検索と要約
- Authors: William Theisen, Daniel Gonzalez, Zachariah Carmichael, Daniel
Moreira, Tim Weninger, and Walter Scheirer
- Abstract要約: モチーフマイニング(モチーフマイニング)の概念は,未ラベルデータと未分類データの大規模なコレクションにおいて,リミックスされた画像コンテンツを発見し,要約するプロセスである。
実験は3つのミーム形式のデータセットで行われ、その中にはロシアとウクライナの紛争における情報戦争に関連する新たな集合が含まれている。
提案したモチーフマイニング手法は、類似したアプローチと比較して、人間の観察者の好みや期待とより密接に一致した関連するリミックスコンテンツを特定することができる。
- 参考スコア(独自算出の注目度): 7.471324333134607
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: On the internet, images are no longer static; they have become dynamic
content. Thanks to the availability of smartphones with cameras and easy-to-use
editing software, images can be remixed (i.e., redacted, edited, and recombined
with other content) on-the-fly and with a world-wide audience that can repeat
the process. From digital art to memes, the evolution of images through time is
now an important topic of study for digital humanists, social scientists, and
media forensics specialists. However, because typical data sets in computer
vision are composed of static content, the development of automated algorithms
to analyze remixed content has been limited. In this paper, we introduce the
idea of Motif Mining - the process of finding and summarizing remixed image
content in large collections of unlabeled and unsorted data. In this paper,
this idea is formalized and a reference implementation is introduced.
Experiments are conducted on three meme-style data sets, including a newly
collected set associated with the information war in the Russo-Ukrainian
conflict. The proposed motif mining approach is able to identify related
remixed content that, when compared to similar approaches, more closely aligns
with the preferences and expectations of human observers.
- Abstract(参考訳): インターネットでは、画像はもはや静的ではなく、動的コンテンツになっている。
カメラと使いやすい編集ソフトウェアを備えたスマートフォンが利用可能になったことにより、画像はオンザフライでリミックス(再生、編集、他のコンテンツとのリミックス)でき、また、そのプロセスを再現できる世界規模のオーディエンスと組み合わせることができる。
デジタルアートからミームまで、画像の時間的進化は、デジタルヒューマニスト、社会科学者、メディア法医学の専門家にとって重要な研究テーマとなっている。
しかし、コンピュータビジョンの典型的なデータセットは静的なコンテンツで構成されているため、リミックスされたコンテンツを分析する自動アルゴリズムの開発は限られている。
本稿では,未ラベルおよび未分類データの大規模なコレクションにおいて,リミックス画像の検索と要約を行うMotif Miningのアイデアを紹介する。
本稿では,この概念を形式化し,リファレンス実装を導入する。
ロシア・ウクライナ紛争における情報戦争に関連する新たなデータセットを含む、3つのミームスタイルのデータセットで実験が行われている。
提案したモチーフマイニング手法は、類似したアプローチと比較して、人間の観察者の好みや期待とより密接に一致した関連するリミックスコンテンツを特定することができる。
関連論文リスト
- Zero-shot Image Editing with Reference Imitation [50.75310094611476]
我々は、ユーザーがより便利に創造性を発揮できるように、模倣編集と呼ばれる新しい形態の編集を提示する。
ビデオクリップから2つのフレームをランダムに選択し、あるフレームのいくつかの領域をマスクし、他のフレームからの情報を用いてマスクされた領域を復元する、MimicBrushと呼ばれる生成学習フレームワークを提案する。
各種試験事例における本手法の有効性を実験的に示すとともに,既存手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-06-11T17:59:51Z) - StoryDiffusion: Consistent Self-Attention for Long-Range Image and Video Generation [117.13475564834458]
本稿では,一貫性自己注意という新たな自己注意計算手法を提案する。
提案手法を長距離ビデオ生成に拡張するために,新しい意味空間時間運動予測モジュールを導入する。
これら2つの新しいコンポーネントを統合することで、StoryDiffusionと呼ばれるフレームワークは、一貫した画像やビデオでテキストベースのストーリーを記述することができます。
論文 参考訳(メタデータ) (2024-05-02T16:25:16Z) - Enhancing Historical Image Retrieval with Compositional Cues [3.2276097734075426]
本稿では,この話題に計算美学,すなわち画像合成から重要な要素を紹介する。
CNNが抽出した合成関連情報を設計した検索モデルに明示的に統合することにより、画像の合成規則と意味情報の両方を考察する。
論文 参考訳(メタデータ) (2024-03-21T10:51:19Z) - Diffusion Model-Based Image Editing: A Survey [46.244266782108234]
様々な画像生成や編集作業のための強力なツールとして,拡散モデルが登場している。
本稿では,画像編集のための拡散モデルを用いた既存手法の概要について述べる。
テキスト誘導画像編集アルゴリズムの性能を更に評価するために,系統的なベンチマークであるEditEvalを提案する。
論文 参考訳(メタデータ) (2024-02-27T14:07:09Z) - A Dataset and Benchmark for Copyright Infringement Unlearning from Text-to-Image Diffusion Models [52.49582606341111]
著作権法は、クリエイティブ作品を再生、配布、収益化する排他的権利をクリエイターに与えている。
テキスト・ツー・イメージ・ジェネレーションの最近の進歩は、著作権の執行に重大な課題をもたらしている。
CLIP、ChatGPT、拡散モデルを調和させてデータセットをキュレートする新しいパイプラインを導入する。
論文 参考訳(メタデータ) (2024-01-04T11:14:01Z) - Decoupled Textual Embeddings for Customized Image Generation [62.98933630971543]
カスタマイズされたテキスト・ツー・イメージ生成は、ユーザが指定した概念を少数の画像で学習することを目的としている。
既存の方法は、通常、過剰な問題に悩まされ、学習された概念と対象と無関係な情報を絡み合わせる。
フレキシブルなテキスト・ツー・イメージ生成のための不整合概念の埋め込みを学習する新しいアプローチであるDETEXを提案する。
論文 参考訳(メタデータ) (2023-12-19T03:32:10Z) - Stellar: Systematic Evaluation of Human-Centric Personalized
Text-to-Image Methods [52.806258774051216]
我々は,個々のイメージを入力し,生成プロセスの基盤となるテキストと,所望の視覚的コンテキストを記述したテキストに焦点をあてる。
我々は,既存の関連するデータセットよりも桁違いの大きさの個人画像と,リッチなセマンティックな接地真実アノテーションが容易に利用できるパーソナライズされたプロンプトを含む標準化データセット(Stellar)を紹介した。
被験者ごとにテストタイムの微調整を必要とせず,新しいSoTAを定量的かつ人為的に設定した,シンプルで効率的でパーソナライズされたテキスト・ツー・イメージのベースラインを導出する。
論文 参考訳(メタデータ) (2023-12-11T04:47:39Z) - Retargeting Visual Data with Deformation Fields [14.716129471469992]
Seam Carvingは、オブジェクトの削除などの操作を含むコンテンツ認識を可能にする画像編集方法である。
本稿では、低情報量放射率の場所で変形を試みながら、出力を可塑性に保つニューラルネットワークを用いて変形を学習することを提案する。
異なる視覚データを用いて実験を行った結果,本手法は従来の手法に比べてコンテンツ認識に優れていた。
論文 参考訳(メタデータ) (2023-11-22T10:27:19Z) - Unsupervised Compositional Concepts Discovery with Text-to-Image
Generative Models [80.75258849913574]
本稿では、異なる画像の集合を考えると、各画像を表す生成概念を発見できるかという逆問題を考える。
本稿では,画像の集合から生成概念を抽出し,絵画やオブジェクト,キッチンシーンからの照明から異なる美術スタイルを分離し,イメージネット画像から得られる画像クラスを発見するための教師なしアプローチを提案する。
論文 参考訳(メタデータ) (2023-06-08T17:02:15Z) - Comprehensive Dataset of Face Manipulations for Development and
Evaluation of Forensic Tools [0.6091702876917281]
我々は、デジタルメディアの真正性に対処し、分類するための新しいアプローチを開発する研究コミュニティを支援するために、編集された顔画像のデータセットを作成する。
データセットの目標は,次の課題に対処することである。(1) 与えられた画像の真正性(編集検出)を決定することは可能か?
我々の期待は、これらの課題にかかわる画像鑑定の最先端を改善するために、我々の準備された評価プロトコルが、研究者に役立ちます。
論文 参考訳(メタデータ) (2022-08-24T21:17:28Z) - Learning Transformation-Aware Embeddings for Image Forensics [15.484408315588569]
Image Provenance Analysisは、コンテンツを共有するさまざまな操作されたイメージバージョン間の関係を見つけることを目的としている。
証明分析のための主要なサブプロブレムの1つは、完全なコンテンツを共有したり、ほぼ重複している画像の編集順序である。
本稿では,1つの画像から生成した画像に対して,変換を通じて妥当な順序付けを行うための,新しい深層学習に基づくアプローチを提案する。
論文 参考訳(メタデータ) (2020-01-13T22:01:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。