論文の概要: Modeling Object Dissimilarity for Deep Saliency Prediction
- arxiv url: http://arxiv.org/abs/2104.03864v1
- Date: Thu, 8 Apr 2021 16:10:37 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-09 16:06:42.163963
- Title: Modeling Object Dissimilarity for Deep Saliency Prediction
- Title(参考訳): 深海塩分予測のための異種物体のモデル化
- Authors: Bahar Aydemir, Deblina Bhattacharjee, Seungryong Kim, Tong Zhang,
Mathieu Salzmann and Sabine S\"usstrunk
- Abstract要約: 本稿では,複数の物体間の差分をモデル化する検出誘導サリエンシー予測ネットワークについて紹介する。
私たちのアプローチは一般的であり、深いサリエンシー予測ネットワークから抽出された特徴とオブジェクトの不類似性を融合させることができます。
- 参考スコア(独自算出の注目度): 86.14710352178967
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Saliency prediction has made great strides over the past two decades, with
current techniques modeling low-level information, such as color, intensity and
size contrasts, and high-level one, such as attention and gaze direction for
entire objects. Despite this, these methods fail to account for the
dissimilarity between objects, which humans naturally do. In this paper, we
introduce a detection-guided saliency prediction network that explicitly models
the differences between multiple objects, such as their appearance and size
dissimilarities. Our approach is general, allowing us to fuse our object
dissimilarities with features extracted by any deep saliency prediction
network. As evidenced by our experiments, this consistently boosts the accuracy
of the baseline networks, enabling us to outperform the state-of-the-art models
on three saliency benchmarks, namely SALICON, MIT300 and CAT2000.
- Abstract(参考訳): 正当性予測は過去20年間に大きく進歩し、現在の手法では、色、強度、大きさのコントラストといった低レベルの情報や、物体全体の注意や視線方向といった高レベルの情報をモデル化している。
しかし、これらの手法は、人間が自然に行う物体間の相違を考慮しない。
本稿では,複数物体の出現や大きさの相違など,物体間の差異を明示的にモデル化する,検出誘導型塩分予測ネットワークを提案する。
当社のアプローチは一般的なもので、ディープサリエンシー予測ネットワークによって抽出された機能とオブジェクトの相違点を融合することが可能です。
実験によって証明されたように、この手法はベースラインネットワークの精度を一貫して向上させ、SALICON、MIT300、CAT2000の3つのサリエンシベンチマークで最先端のモデルを上回ります。
関連論文リスト
- Human-Object Interaction Detection Collaborated with Large Relation-driven Diffusion Models [65.82564074712836]
テキストと画像の拡散モデルに光を流す新しいHOI検出器であるDIFfusionHOIを紹介する。
まず、埋め込み空間における人間と物体の関係パターンの表現をインバージョンベースで学習する戦略を考案する。
これらの学習された関係埋め込みはテキストのプロンプトとして機能し、スタイア拡散モデルが特定の相互作用を記述する画像を生成する。
論文 参考訳(メタデータ) (2024-10-26T12:00:33Z) - Stanceformer: Target-Aware Transformer for Stance Detection [59.69858080492586]
スタンス検出は、テキストで表現されたスタンスを特定の主題やターゲットに向けて識別する。
以前の作業は、ターゲットを効果的に優先順位付けする能力に欠ける既存のトランスフォーマーモデルに依存していた。
本稿では,学習と推論の両方において,目標に対する注意を高めるターゲット対応トランスフォーマーモデルであるStanceformerを紹介する。
論文 参考訳(メタデータ) (2024-10-09T17:24:28Z) - Adversarial Robustness Assessment of NeuroEvolution Approaches [1.237556184089774]
CIFAR-10画像分類タスクにおける2つのNeuroEvolutionアプローチにより得られたモデルのロバスト性を評価する。
以上の結果から,進化したモデルが反復的手法で攻撃されると,その精度は通常0に低下するか0に近づきます。
これらの技法のいくつかは、元の入力に付加された摂動を悪化させ、頑丈さを損なう可能性がある。
論文 参考訳(メタデータ) (2022-07-12T10:40:19Z) - Self-attention Presents Low-dimensional Knowledge Graph Embeddings for
Link Prediction [6.789370732159177]
セルフアテンションは、エンティティとリレーションにクエリ依存のプロジェクションを適用するための鍵である。
我々のモデルは、最新の3つの最先端の競合製品よりも好意的に、あるいは優れたパフォーマンスを達成しています。
論文 参考訳(メタデータ) (2021-12-20T16:11:01Z) - How Well Do Sparse Imagenet Models Transfer? [75.98123173154605]
転送学習は、大規模な"上流"データセットで事前訓練されたモデルが、"下流"データセットで良い結果を得るために適応される古典的なパラダイムである。
本研究では、ImageNetデータセットでトレーニングされた畳み込みニューラルネットワーク(CNN)のコンテキストにおいて、この現象を詳細に調査する。
スパースモデルでは, 高空間であっても, 高密度モデルの転送性能にマッチしたり, 性能に優れることを示す。
論文 参考訳(メタデータ) (2021-11-26T11:58:51Z) - Bayesian deep learning of affordances from RGB images [5.939410304994348]
本稿では,RGB画像から直接,環境の可利用性を予測するための深層学習手法を提案する。
社会的に受け入れられた価格に関するこれまでの研究に基づいて,本モデルでは,対象物と全画像の局所的・グローバル的情報を組み合わせたマルチスケールCNNをベースとした。
以上の結果から,Brierスコアと予測誤差のMC-dropoutと比較すると,深層アンサンブルの限界性能が向上した。
論文 参考訳(メタデータ) (2021-09-27T07:39:47Z) - Recursive Contour Saliency Blending Network for Accurate Salient Object
Detection [0.0]
本研究では,有能な物体検出におけるエッジ品質向上のためのネットワークを設計した。
輪郭と塩分を交換するための輪郭・塩分混合モジュールを提案した。
我々のモデルは軽量で高速で、パラメータはわずか279万、リアルタイム推論は31FPSである。
論文 参考訳(メタデータ) (2021-05-28T14:19:54Z) - Contemplating real-world object classification [53.10151901863263]
Barbuらが最近提案したObjectNetデータセットを再分析した。
日常の状況に物を含むこと。
分離されたオブジェクトにディープモデルを適用すると、元の論文のようにシーン全体ではなく、約20~30%の性能改善が得られます。
論文 参考訳(メタデータ) (2021-03-08T23:29:59Z) - Firearm Detection via Convolutional Neural Networks: Comparing a
Semantic Segmentation Model Against End-to-End Solutions [68.8204255655161]
武器の脅威検出とライブビデオからの攻撃的な行動は、潜在的に致命的な事故の迅速検出と予防に使用できる。
これを実現する一つの方法は、人工知能と、特に画像分析のための機械学習を使用することです。
従来のモノリシックなエンド・ツー・エンドのディープラーニングモデルと、セマンティクスセグメンテーションによって火花を検知する単純なニューラルネットワークのアンサンブルに基づく前述したモデルを比較した。
論文 参考訳(メタデータ) (2020-12-17T15:19:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。