論文の概要: Dynamic Texture Recognition via Nuclear Distances on Kernelized
Scattering Histogram Spaces
- arxiv url: http://arxiv.org/abs/2102.00841v1
- Date: Mon, 1 Feb 2021 13:54:24 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-02 16:26:45.230041
- Title: Dynamic Texture Recognition via Nuclear Distances on Kernelized
Scattering Histogram Spaces
- Title(参考訳): カーネル化散乱ヒストグラム空間上の核距離による動的テクスチャ認識
- Authors: Alexander Sagel, Julian W\"ormann, Hao Shen
- Abstract要約: 本研究では,動的テクスチャをScattering変換を用いて計算したフレームワイド特徴ベクトルのカーネル空間として記述することを提案する。
これらの空間を基底不変距離と組み合わせることで、最も近い近傍分類の競合結果と、最も近いクラス中心分類の最先端結果を生成する枠組みを得る。
- 参考スコア(独自算出の注目度): 95.21606283608683
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Distance-based dynamic texture recognition is an important research field in
multimedia processing with applications ranging from retrieval to segmentation
of video data. Based on the conjecture that the most distinctive characteristic
of a dynamic texture is the appearance of its individual frames, this work
proposes to describe dynamic textures as kernelized spaces of frame-wise
feature vectors computed using the Scattering transform. By combining these
spaces with a basis-invariant metric, we get a framework that produces
competitive results for nearest neighbor classification and state-of-the-art
results for nearest class center classification.
- Abstract(参考訳): 遠隔に基づく動的テクスチャ認識は,映像データの検索からセグメンテーションまで,マルチメディア処理における重要な研究分野である。
動的テクスチャの最も特徴的な特徴が個々のフレームの出現であるという予想に基づいて, 散乱変換を用いて計算したフレーム的特徴ベクトルの局所空間として動的テクスチャを記述することを提案する。
これらの空間を基底不変計量と組み合わせることで、最寄りの近傍分類と最寄りのクラスセンター分類のための最先端の結果を競争的に生成する枠組みを得る。
関連論文リスト
- DNS SLAM: Dense Neural Semantic-Informed SLAM [92.39687553022605]
DNS SLAMは、ハイブリッド表現を備えた新しいRGB-DセマンティックSLAMアプローチである。
本手法は画像に基づく特徴抽出と多視点幾何制約を統合し,外観の細部を改良する。
実験により, 合成データと実世界のデータ追跡の両面において, 最先端の性能が得られた。
論文 参考訳(メタデータ) (2023-11-30T21:34:44Z) - A geometrically aware auto-encoder for multi-texture synthesis [1.2891210250935146]
マルチテクスチャ合成のための自動エンコーダアーキテクチャを提案する。
画像はコンパクトで幾何学的に整合した潜在空間に埋め込まれる。
テクスチャ合成とタスクは、これらの潜在コードから直接実行することができる。
論文 参考訳(メタデータ) (2023-02-03T09:28:39Z) - Joint Learning of Deep Texture and High-Frequency Features for
Computer-Generated Image Detection [24.098604827919203]
本稿では,CG画像検出のための深いテクスチャと高周波特徴を有する共同学習戦略を提案する。
セマンティックセグメンテーションマップを生成して、アフィン変換操作を誘導する。
原画像と原画像の高周波成分の組み合わせを、注意機構を備えたマルチブランチニューラルネットワークに供給する。
論文 参考訳(メタデータ) (2022-09-07T17:30:40Z) - Texture image analysis based on joint of multi directions GLCM and local
ternary patterns [0.0]
テクスチャ機能は、通勤視覚や機械学習問題において、多くの異なるアプリケーションで使用することができる。
2つのテクスチャ記述子、共起行列と局所三元パターンを組み合わせた新しい手法を提案する。
実験の結果,提案手法はいくつかの最先端手法と比較して高い分類率を示すことがわかった。
論文 参考訳(メタデータ) (2022-09-05T09:53:00Z) - Multiscale Analysis for Improving Texture Classification [62.226224120400026]
本稿では,テクスチャの異なる空間周波数帯域を別々に扱うために,ガウス・ラプラシアピラミッドを用いる。
バイオインスパイアされたテクスチャ記述子,情報理論測度,灰色レベルの共起行列特徴,ハリリック統計特徴から抽出した特徴を特徴ベクトルに集約した。
論文 参考訳(メタデータ) (2022-04-21T01:32:22Z) - HighlightMe: Detecting Highlights from Human-Centric Videos [52.84233165201391]
我々は,人間中心のビデオからハイライト可能な抜粋を検出するために,ドメインとユーザに依存しないアプローチを提案する。
本研究では,時空間グラフ畳み込みを用いたオートエンコーダネットワークを用いて,人間の活動やインタラクションを検出する。
我々は,最先端の手法に比べて,人手によるハイライトのマッチングの平均精度が4~12%向上したことを観察した。
論文 参考訳(メタデータ) (2021-10-05T01:18:15Z) - Image Synthesis via Semantic Composition [74.68191130898805]
本稿では,その意味的レイアウトに基づいて現実的なイメージを合成する新しい手法を提案する。
類似した外観を持つ物体に対して、類似した表現を共有するという仮説が立てられている。
本手法は, 空間的変化と関連表現の両方を生じる, 外観相関による領域間の依存関係を確立する。
論文 参考訳(メタデータ) (2021-09-15T02:26:07Z) - Multi-modal Visual Place Recognition in Dynamics-Invariant Perception
Space [23.43468556831308]
このレターは、動的環境における位置認識を改善するために、意味的および視覚的モダリティのマルチモーダル融合の使用を探求する。
これを実現するには、まず静的セマンティックセグメンテーションを生成するための新しいディープラーニングアーキテクチャを設計します。
次に,空間的ピラミドマッチングモデルを用いて,静的意味セグメンテーションを特徴ベクトルに符号化する。
並行して、静的なイメージは人気のあるbag-of-wordsモデルを使ってエンコードされる。
論文 参考訳(メタデータ) (2021-05-17T13:14:52Z) - Video Frame Interpolation via Structure-Motion based Iterative Fusion [19.499969588931414]
映像フレーム補間のための構造運動に基づく反復融合法を提案する。
観客が前景や背景の物体に対して異なる視覚的嗜好を持つという観察に触発されて,私たちは初めて,映像フレーム補間作業の評価プロセスにサリエンシマスクを使うことを提案する。
論文 参考訳(メタデータ) (2021-05-11T22:11:17Z) - Towards Analysis-friendly Face Representation with Scalable Feature and
Texture Compression [113.30411004622508]
普遍的で協調的な視覚情報表現は階層的な方法で実現できることを示す。
ディープニューラルネットワークの強力な生成能力に基づいて、基本特徴層と強化層の間のギャップは、特徴レベルのテクスチャ再構築によってさらに埋められる。
提案するフレームワークの効率を改善するために,ベース層ニューラルネットワークをマルチタスクでトレーニングする。
論文 参考訳(メタデータ) (2020-04-21T14:32:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。