論文の概要: Relative Attribute Classification with Deep Rank SVM
- arxiv url: http://arxiv.org/abs/2009.07717v1
- Date: Wed, 9 Sep 2020 09:21:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-20 08:37:59.890190
- Title: Relative Attribute Classification with Deep Rank SVM
- Title(参考訳): deep rank svmを用いた相対属性分類
- Authors: Sara Atito Ali Ahmed, Berrin Yanikoglu
- Abstract要約: 相対属性は、画像ペア間の特定の属性の強さを示す。
本稿では,Dep Rank SVM (DRSVM) と呼ばれるランクSVM損失関数を持つディープ・シームズ・ネットワークを導入し,画像のどちらが特定の属性を持つかを決定する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Relative attributes indicate the strength of a particular attribute between
image pairs. We introduce a deep Siamese network with rank SVM loss function,
called Deep Rank SVM (DRSVM), in order to decide which one of a pair of images
has a stronger presence of a specific attribute. The network is trained in an
end-to-end fashion to jointly learn the visual features and the ranking
function. We demonstrate the effectiveness of our approach against the
state-of-the-art methods on four image benchmark datasets: LFW-10, PubFig,
UTZap50K-lexi and UTZap50K-2 datasets. DRSVM surpasses state-of-art in terms of
the average accuracy across attributes, on three of the four image benchmark
datasets.
- Abstract(参考訳): 相対属性は、画像ペア間の特定の属性の強さを示す。
本稿では,階層型svm損失関数であるdeep rank svm (drsvm) を用いた深層シャムネットワークを導入し,画像のどちらが特定の属性の存在感が強いかを決定する。
ネットワークはエンドツーエンドでトレーニングされ、視覚的特徴とランキング関数を共同で学習する。
本研究では, LFW-10, PubFig, UTZap50K-lexi, UTZap50K-2の4つの画像ベンチマークデータセットに対する最先端手法に対するアプローチの有効性を示す。
DRSVMは、4つの画像ベンチマークデータセットのうち3つで、属性の平均精度で最先端を上回っている。
関連論文リスト
- UMAAF: Unveiling Aesthetics via Multifarious Attributes of Images [16.647573404422175]
画像の絶対属性と相対属性の両方をモデル化する統一多属性美意識評価フレームワーク(UMAAF)を提案する。
UMAAFは、TAD66KとAVAデータセット上で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2023-11-19T11:57:01Z) - Improving Human-Object Interaction Detection via Virtual Image Learning [68.56682347374422]
人間-物体相互作用(Human-Object Interaction、HOI)は、人間と物体の相互作用を理解することを目的としている。
本稿では,仮想画像学習(Virtual Image Leaning, VIL)による不均衡分布の影響を軽減することを提案する。
ラベルからイメージへの新たなアプローチであるMultiple Steps Image Creation (MUSIC)が提案され、実際の画像と一貫した分布を持つ高品質なデータセットを作成する。
論文 参考訳(メタデータ) (2023-08-04T10:28:48Z) - T-MARS: Improving Visual Representations by Circumventing Text Feature Learning [99.3682210827572]
LAIONの画像の40%近くは、字幕と重なるテキストを含んでいるという、我々の観察に動機づけられた新しいデータフィルタリング手法を提案する。
我々のシンプルでスケーラブルなアプローチであるT-MARSは、テキストが残りの視覚的特徴を支配するペアのみをフィルタリングします。
論文 参考訳(メタデータ) (2023-07-06T16:59:52Z) - Attribute-Guided Multi-Level Attention Network for Fine-Grained Fashion Retrieval [27.751399400911932]
本稿では,細粒度ファッション検索のための属性誘導型マルチレベルアテンションネットワーク(AG-MAN)を提案する。
具体的には、まず事前訓練された特徴抽出器を拡張し、マルチレベル画像埋め込みをキャプチャする。
そこで本研究では,同じ属性を持つ画像と異なる値を持つ画像とを同一のクラスに分類する分類手法を提案する。
論文 参考訳(メタデータ) (2022-12-27T05:28:38Z) - Multi-level Second-order Few-shot Learning [111.0648869396828]
教師付きまたは教師なしの少数ショット画像分類と少数ショット動作認識のためのマルチレベル2次数列学習ネットワーク(MlSo)を提案する。
我々は、パワーノーマライズされた二階学習者ストリームと、複数のレベルの視覚的抽象化を表現する機能を組み合わせた、いわゆる2階学習者ストリームを活用している。
我々は,Omniglot, mini-ImageNet, tiered-ImageNet, Open MIC, CUB Birds, Stanford Dogs, Cars, HMDB51, UCF101, mini-MITなどのアクション認識データセットなどの標準データセットに対して,優れた結果を示す。
論文 参考訳(メタデータ) (2022-01-15T19:49:00Z) - FashionSearchNet-v2: Learning Attribute Representations with
Localization for Image Retrieval with Attribute Manipulation [22.691709684780292]
提案されているFashionSearchNet-v2アーキテクチャは、その弱教師付きローカライゼーションモジュールを利用して属性固有の表現を学習することができる。
ネットワークは属性分類と三重項ランキング損失の組み合わせで共同で訓練され、局所表現を推定する。
FashionSearchNet-v2は、属性数の観点からリッチないくつかのデータセットで実施された実験により、他の最先端属性操作技術よりも優れていた。
論文 参考訳(メタデータ) (2021-11-28T13:50:20Z) - HighlightMe: Detecting Highlights from Human-Centric Videos [52.84233165201391]
我々は,人間中心のビデオからハイライト可能な抜粋を検出するために,ドメインとユーザに依存しないアプローチを提案する。
本研究では,時空間グラフ畳み込みを用いたオートエンコーダネットワークを用いて,人間の活動やインタラクションを検出する。
我々は,最先端の手法に比べて,人手によるハイライトのマッチングの平均精度が4~12%向上したことを観察した。
論文 参考訳(メタデータ) (2021-10-05T01:18:15Z) - A-FMI: Learning Attributions from Deep Networks via Feature Map
Importance [58.708607977437794]
勾配に基づくアトリビューション法は畳み込みニューラルネットワーク(CNN)の理解を助けることができる
帰属特徴の冗長性と勾配飽和問題は、帰属方法がまだ直面する課題である。
本稿では,各特徴マップの寄与度を高めるための新しい概念,特徴マップ重要度 (FMI) と,勾配飽和問題に対処するためのFMIによる新しい帰属法を提案する。
論文 参考訳(メタデータ) (2021-04-12T14:54:44Z) - Seed the Views: Hierarchical Semantic Alignment for Contrastive
Representation Learning [116.91819311885166]
一つの画像から生成されたビューをtextbfCross-samples や Multi-level representation に拡張することで,階層的なセマンティックアライメント戦略を提案する。
提案手法はCsMlと呼ばれ,サンプル間の多層視覚表現を堅牢な方法で統合する機能を備えている。
論文 参考訳(メタデータ) (2020-12-04T17:26:24Z) - HDF: Hybrid Deep Features for Scene Image Representation [16.252523139552174]
シーンイメージのための新しいタイプの機能 - ハイブリッドディープ機能 - を提案する。
オブジェクトベースとシーンベースの両方の機能を2レベルに活用する。
導入した特徴によって,最先端の分類精度が得られることを示す。
論文 参考訳(メタデータ) (2020-03-22T01:05:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。