論文の概要: Texture Interpolation for Probing Visual Perception
- arxiv url: http://arxiv.org/abs/2006.03698v2
- Date: Thu, 22 Oct 2020 18:05:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-25 04:19:36.556156
- Title: Texture Interpolation for Probing Visual Perception
- Title(参考訳): 視覚知覚のためのテクスチャ補間
- Authors: Jonathan Vacher, Aida Davila, Adam Kohn, Ruben Coen-Cagli
- Abstract要約: テクスチャの深部畳み込みニューラルネットワーク(CNN)活性化の分布は楕円分布によってよく説明されている。
そこで我々は,任意のテクスチャ間を補間する最適な輸送距離を持つ自然測地学を提案する。
本手法は他のCNN手法と比較して,テクスチャ知覚の幾何学とより密に一致しているようである。
- 参考スコア(独自算出の注目度): 4.637185817866918
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Texture synthesis models are important tools for understanding visual
processing. In particular, statistical approaches based on neurally relevant
features have been instrumental in understanding aspects of visual perception
and of neural coding. New deep learning-based approaches further improve the
quality of synthetic textures. Yet, it is still unclear why deep texture
synthesis performs so well, and applications of this new framework to probe
visual perception are scarce. Here, we show that distributions of deep
convolutional neural network (CNN) activations of a texture are well described
by elliptical distributions and therefore, following optimal transport theory,
constraining their mean and covariance is sufficient to generate new texture
samples. Then, we propose the natural geodesics (ie the shortest path between
two points) arising with the optimal transport metric to interpolate between
arbitrary textures. Compared to other CNN-based approaches, our interpolation
method appears to match more closely the geometry of texture perception, and
our mathematical framework is better suited to study its statistical nature. We
apply our method by measuring the perceptual scale associated to the
interpolation parameter in human observers, and the neural sensitivity of
different areas of visual cortex in macaque monkeys.
- Abstract(参考訳): テクスチャ合成モデルは視覚処理を理解するための重要なツールである。
特に、神経関連の特徴に基づく統計的アプローチは、視覚知覚やニューラルコーディングの側面を理解するのに役立っている。
新しいディープラーニングベースのアプローチは、合成テクスチャの品質をさらに向上させる。
しかし、なぜ深いテクスチャ合成が上手く機能するのかはいまだ不明であり、この新しい枠組みの視覚知覚を探索するための応用は少ない。
本稿では, テクスチャの深層畳み込みニューラルネットワーク(cnn)活性化の分布を楕円分布によりよく記述するので, 最適輸送理論に従えば, それらの平均と共分散の制約は新たなテクスチャサンプルを生成するのに十分であることを示す。
次に,任意のテクスチャ間を補間するために,最適移動距離から生じる自然測地線(すなわち2点間の最短経路)を提案する。
他のcnnベースのアプローチと比較して、この補間法はテクスチャ知覚の幾何学とより密接に一致しているように見え、我々の数学的枠組みはその統計的性質を研究するのに適している。
人間の観察者における補間パラメータに関連する知覚尺度と、マカクザルの視覚野の異なる領域の神経感度を計測し、本手法を適用した。
関連論文リスト
- Graph Neural Networks for Learning Equivariant Representations of Neural Networks [55.04145324152541]
本稿では,ニューラルネットワークをパラメータの計算グラフとして表現することを提案する。
我々のアプローチは、ニューラルネットワークグラフを多種多様なアーキテクチャでエンコードする単一モデルを可能にする。
本稿では,暗黙的ニューラル表現の分類や編集など,幅広いタスクにおける本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-03-18T18:01:01Z) - DNS SLAM: Dense Neural Semantic-Informed SLAM [92.39687553022605]
DNS SLAMは、ハイブリッド表現を備えた新しいRGB-DセマンティックSLAMアプローチである。
本手法は画像に基づく特徴抽出と多視点幾何制約を統合し,外観の細部を改良する。
実験により, 合成データと実世界のデータ追跡の両面において, 最先端の性能が得られた。
論文 参考訳(メタデータ) (2023-11-30T21:34:44Z) - Neural Texture Puppeteer: A Framework for Neural Geometry and Texture
Rendering of Articulated Shapes, Enabling Re-Identification at Interactive
Speed [2.8544822698499255]
我々はニューラルテクスチュア Puppeteer と呼ぶテクスチャ化された形状のためのニューラルレンダリングパイプラインを提案する。
テクスチャオートエンコーダは、この情報を利用して、テクスチャ化された画像をグローバルな潜在コードにエンコードする。
本手法は,データに制限がある絶滅危惧種に適用できる。
論文 参考訳(メタデータ) (2023-11-28T10:51:05Z) - Neural Textured Deformable Meshes for Robust Analysis-by-Synthesis [17.920305227880245]
本稿では, 近似解析を用いた三重視覚タスクを一貫した方法で定式化する。
実世界の画像で評価すると、従来のニューラルネットワークよりも、我々の分析バイシンセシスの方がはるかに堅牢であることが示される。
論文 参考訳(メタデータ) (2023-05-31T18:45:02Z) - GM-NeRF: Learning Generalizable Model-based Neural Radiance Fields from
Multi-view Images [79.39247661907397]
本稿では,自由視点画像の合成に有効なフレームワークであるGeneralizable Model-based Neural Radiance Fieldsを提案する。
具体的には、多視点2D画像からの出現コードを幾何学的プロキシに登録するための幾何学誘導型アテンション機構を提案する。
論文 参考訳(メタデータ) (2023-03-24T03:32:02Z) - FuNNscope: Visual microscope for interactively exploring the loss
landscape of fully connected neural networks [77.34726150561087]
ニューラルネットワークの高次元景観特性を探索する方法を示す。
我々は、小さなニューラルネットワークの観測結果をより複雑なシステムに一般化する。
インタラクティブダッシュボードは、いくつかのアプリケーションネットワークを開放する。
論文 参考訳(メタデータ) (2022-04-09T16:41:53Z) - Scene Synthesis via Uncertainty-Driven Attribute Synchronization [52.31834816911887]
本稿では,3次元シーンの多様な特徴パターンを捉えるニューラルシーン合成手法を提案する。
提案手法は,ニューラルネットワークと従来のシーン合成手法の双方の長所を結合する。
論文 参考訳(メタデータ) (2021-08-30T19:45:07Z) - NITES: A Non-Parametric Interpretable Texture Synthesis Method [41.13585191073405]
本研究では,NITES法と呼ばれる非パラメトリック解釈可能なテクスチャ合成法を提案する。
NITESは数学的に透明で、訓練や推論において効率的である。
論文 参考訳(メタデータ) (2020-09-02T22:52:44Z) - A Generative Model for Texture Synthesis based on Optimal Transport
between Feature Distributions [8.102785819558978]
任意の大きさの新しいテクスチャをオンザフライで合成できるフィードフォワードニューラルネットワークを、我々のフレームワークを使って学習する方法を示す。
我々のフレームワークを使ってフィードフォワードニューラルネットワークを学習し、任意のサイズの新しいテクスチャを高速に合成する方法を示します。
論文 参考訳(メタデータ) (2020-06-19T13:32:55Z) - Co-occurrence Based Texture Synthesis [25.4878061402506]
本稿では,共起統計に基づいて局所的に条件付けされた完全畳み込み生成対向ネットワークを提案し,任意に大きな画像を生成する。
本手法はテクスチャ合成のための安定的で直感的で解釈可能な潜在表現を提供する。
論文 参考訳(メタデータ) (2020-05-17T08:01:44Z) - Towards Analysis-friendly Face Representation with Scalable Feature and
Texture Compression [113.30411004622508]
普遍的で協調的な視覚情報表現は階層的な方法で実現できることを示す。
ディープニューラルネットワークの強力な生成能力に基づいて、基本特徴層と強化層の間のギャップは、特徴レベルのテクスチャ再構築によってさらに埋められる。
提案するフレームワークの効率を改善するために,ベース層ニューラルネットワークをマルチタスクでトレーニングする。
論文 参考訳(メタデータ) (2020-04-21T14:32:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。