論文の概要: MooneyMaker: A Python package to create ambiguous two-tone images
- arxiv url: http://arxiv.org/abs/2601.14077v1
- Date: Tue, 20 Jan 2026 15:37:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 22:47:23.38706
- Title: MooneyMaker: A Python package to create ambiguous two-tone images
- Title(参考訳): MooneyMaker: あいまいな2音画像を生成するPythonパッケージ
- Authors: Lars C. Reining, Thabo Matthies, Luisa Haussner, Rabea Turon, Thomas S. A. Wallis,
- Abstract要約: ムーニー画像は、高コントラストで2トーンの視覚刺激であり、写真画像の閾値付けによって生成される。
MooneyMakerはオープンソースのPythonパッケージで、曖昧なMooneyイメージの生成を自動化する。
- 参考スコア(独自算出の注目度): 0.4712110183853874
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Mooney images are high-contrast, two-tone visual stimuli, created by thresholding photographic images. They allow researchers to separate image content from image understanding, making them valuable for studying visual perception. An ideal Mooney image for this purpose achieves a specific balance: it initially appears unrecognizable but becomes fully interpretable to the observer after seeing the original template. Researchers traditionally created these stimuli manually using subjective criteria, which is labor-intensive and can introduce inconsistencies across studies. Automated generation techniques now offer an alternative to this manual approach. Here, we present MooneyMaker, an open-source Python package that automates the generation of ambiguous Mooney images using several complementary approaches. Users can choose between various generation techniques that range from approaches based on image statistics to deep learning models. These models strategically alter edge information to increase initial ambiguity. The package lets users create two-tone images with multiple methods and directly compare the results visually. In an experiment, we validate MooneyMaker by generating Mooney images using different techniques and assess their recognizability for human observers before and after disambiguating them by presenting the template images. Our results reveal that techniques with lower initial recognizability are associated with higher post-template recognition (i.e. a larger disambiguation effect). To help vision scientists build effective databases of Mooney stimuli, we provide practical guidelines for technique selection. By standardizing the generation process, MooneyMaker supports more consistent and reproducible visual perception research.
- Abstract(参考訳): ムーニー画像は、高コントラストで2トーンの視覚刺激であり、写真画像の閾値付けによって生成される。
研究者たちは、画像の内容と画像の理解を分離し、視覚的知覚の研究に役立てることができる。
この目的のために理想的なムーンイ像は特定のバランスを達成し、最初は認識できないように見えるが、元のテンプレートを見た後、観測者にとって完全に解釈可能である。
研究者は伝統的に、主観的基準を使ってこれらの刺激を手動で作り、それは労働集約的であり、研究全体に矛盾をもたらす可能性がある。
自動生成技術はこの手動アプローチに代わる手段を提供する。
ここでは、いくつかの補完的なアプローチを用いて、あいまいなMooneyイメージの自動生成を行う、オープンソースのPythonパッケージであるMooneyMakerを紹介する。
ユーザは、画像統計に基づくアプローチからディープラーニングモデルまで、さまざまな生成テクニックを選択することができる。
これらのモデルは、初期曖昧さを高めるためにエッジ情報を戦略的に変更する。
このパッケージでは、複数のメソッドで2音画像を作成し、その結果を直接視覚的に比較することができる。
実験では,異なる手法を用いてMooneyMaker画像を生成し,テンプレート画像の提示による不明瞭化前後の観察者の認識性を評価する。
以上の結果から,初期認識能力の低い技術は,高い認識能力(曖昧さの大きい効果)に結びついていることが判明した。
視覚科学者がムンニー刺激の効果的なデータベースを構築するのを助けるために,我々は,技術選択のための実践的なガイドラインを提供する。
生成プロセスの標準化により、MooneyMakerはより一貫性があり再現可能な視覚知覚研究をサポートする。
関連論文リスト
- Leveraging Hierarchical Image-Text Misalignment for Universal Fake Image Detection [58.927873049646024]
実画像と比較して,偽画像は対応するキャプションと適切に一致しないことを示す。
本稿では,視覚空間における画像テキストの不一致を識別的手がかりとして活用し,簡易かつ効果的なITEMを提案する。
論文 参考訳(メタデータ) (2025-11-01T06:51:14Z) - MiCo: Multi-image Contrast for Reinforcement Visual Reasoning [72.81576836419373]
CoT(Chain-of-Thought)推論は、複数の画像に視覚的手がかりをリンクするために使用することができる。
視覚言語モデル(VLM)の規則に基づく強化学習に適応する
提案手法は,マルチイメージ推論ベンチマークにおいて大幅な改善を実現し,汎用視覚タスクにおいて高い性能を示す。
論文 参考訳(メタデータ) (2025-06-27T17:59:27Z) - MoLE: Enhancing Human-centric Text-to-image Diffusion via Mixture of Low-rank Experts [61.274246025372044]
顔と手の文脈における人間中心のテキスト・ツー・イメージ生成について検討する。
そこで我々は,手近画像と顔画像で訓練した低ランクモジュールをそれぞれ専門家として考慮し,Mixture of Low-rank Experts (MoLE) という手法を提案する。
この概念は、カスタマイズされたクローズアップデータセットによって訓練された低ランクモジュールが、適切なスケールで適用された場合、対応する画像部分を強化する可能性があるという、低ランクリファインメント(low-rank refinement)の観察から着想を得たものである。
論文 参考訳(メタデータ) (2024-10-30T17:59:57Z) - Detecting Generated Images by Real Images Only [64.12501227493765]
既存の画像検出手法は、生成画像中の視覚的アーティファクトを検出したり、大規模なトレーニングによって、実画像と生成画像の両方から識別的特徴を学習する。
本稿では,新たな視点から生成した画像検出問題にアプローチする。
実画像の共通性を見つけ、特徴空間内の密接な部分空間にマッピングすることで、生成した画像は生成モデルに関係なくサブ空間の外側に投影される。
論文 参考訳(メタデータ) (2023-11-02T03:09:37Z) - Improving Human-Object Interaction Detection via Virtual Image Learning [68.56682347374422]
人間-物体相互作用(Human-Object Interaction、HOI)は、人間と物体の相互作用を理解することを目的としている。
本稿では,仮想画像学習(Virtual Image Leaning, VIL)による不均衡分布の影響を軽減することを提案する。
ラベルからイメージへの新たなアプローチであるMultiple Steps Image Creation (MUSIC)が提案され、実際の画像と一貫した分布を持つ高品質なデータセットを作成する。
論文 参考訳(メタデータ) (2023-08-04T10:28:48Z) - Improving Masked Autoencoders by Learning Where to Mask [65.89510231743692]
マスケ画像モデリングは視覚データに対する有望な自己教師型学習手法である。
本稿では,Gumbel-Softmax を用いて,対向学習マスク生成装置とマスク誘導画像モデリングプロセスとを相互接続するフレームワーク AutoMAE を提案する。
実験の結果,AutoMAEは,標準の自己監督型ベンチマークや下流タスクに対して,効果的な事前学習モデルを提供することがわかった。
論文 参考訳(メタデータ) (2023-03-12T05:28:55Z) - Semantic-Aware Fine-Grained Correspondence [8.29030327276322]
本稿では,画像レベルの自己教師付き手法を用いて,セマンティック・アウェアのきめ細かな対応を学習する。
我々は,微粒な対応を特に狙う画素レベルの自己教師型学習目標を設計する。
本手法は,様々な視覚対応タスクにおける畳み込みネットワークを用いた従来の自己教師手法を超越した手法である。
論文 参考訳(メタデータ) (2022-07-21T12:51:41Z) - The Devil is in the Frequency: Geminated Gestalt Autoencoder for
Self-Supervised Visual Pre-Training [13.087987450384036]
視覚前訓練のための新しいMasked Image Modeling (MIM) をGeminated Autoencoder (Ge$2-AE) と呼ぶ。
具体的には、画素と周波数空間の両方から画像内容を再構成するgeminated decoderをモデルに装備する。
論文 参考訳(メタデータ) (2022-04-18T09:22:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。