論文の概要: Background Invariance Testing According to Semantic Proximity
- arxiv url: http://arxiv.org/abs/2208.09286v1
- Date: Fri, 19 Aug 2022 12:09:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-22 16:47:17.108567
- Title: Background Invariance Testing According to Semantic Proximity
- Title(参考訳): 意味的確率による背景不変性試験
- Authors: Zukang Liao, Pengfei Zhang and Min Chen
- Abstract要約: 対象画像とのセマンティックな近接性に応じて背景シーンを順序付けする手法を提案する。
これにより、ターゲット画像に対する異なる意味距離の背景シーンを効率的かつ有意義に検索することができる。
- 参考スコア(独自算出の注目度): 7.041874755169558
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In many applications, machine learned (ML) models are required to hold some
invariance qualities, such as rotation, size, intensity, and background
invariance. Unlike many types of variance, the variants of background scenes
cannot be ordered easily, which makes it difficult to analyze the robustness
and biases of the models concerned. In this work, we present a technical
solution for ordering background scenes according to their semantic proximity
to a target image that contains a foreground object being tested. We make use
of the results of object recognition as the semantic description of each image,
and construct an ontology for storing knowledge about relationships among
different objects using association analysis. This ontology enables (i)
efficient and meaningful search for background scenes of different semantic
distances to a target image, (ii) quantitative control of the distribution and
sparsity of the sampled background scenes, and (iii) quality assurance using
visual representations of invariance testing results (referred to as variance
matrices). In this paper, we also report the training of an ML4ML assessor to
evaluate the invariance quality of ML models automatically.
- Abstract(参考訳): 多くのアプリケーションにおいて、機械学習(ML)モデルは回転、サイズ、強度、背景の不変性などの不変性を保持する必要がある。
多くのタイプの分散とは異なり、背景シーンの変種は容易に順序付けできないため、モデルの頑健さやバイアスを分析するのが困難である。
本研究では,前景オブジェクトを含む対象画像への意味的近さに応じて背景シーンを順序づける技術を提案する。
オブジェクト認識の結果を各画像の意味的記述として利用し、関連分析を用いて、異なるオブジェクト間の関係に関する知識を格納するオントロジーを構築した。
このオントロジーは
(i)対象画像と意味距離の異なる背景シーンの効率的かつ有意義な検索
(ii)サンプリングされた背景シーンの分布とスパーシティの定量的制御
(iii)不変性試験結果の視覚的表現を用いた品質保証(分散行列として参照)
本稿では,MLモデルの不変性を評価するためのML4MLアセスタのトレーニングについても報告する。
関連論文リスト
- Img-Diff: Contrastive Data Synthesis for Multimodal Large Language Models [32.57246173437492]
本研究は,MLLMにおけるきめ細かい画像認識を強化するために,Img-Diffという新しいデータセットを提案する。
類似画像間のオブジェクト差を解析することにより、マッチングと異なるコンポーネントの両方を識別するモデルに挑戦する。
我々は、安定拡散XLモデルと高度な画像編集技術を用いて、オブジェクト置換をハイライトする類似画像のペアを作成する。
論文 参考訳(メタデータ) (2024-08-08T17:10:16Z) - Diff-DOPE: Differentiable Deep Object Pose Estimation [29.703385848843414]
Diff-DOPE, 画像入力を行う6-DoFポーズ精細機, オブジェクトの3次元テクスチャモデル, オブジェクトの初期ポーズを紹介する。
この方法は、画像とモデルの投影の間の視覚的エラーを最小限に抑えるために、オブジェクトのポーズを更新するために微分可能なレンダリングを使用する。
このシンプルで効果的なアイデアは、ポーズ推定データセットで最先端の結果を得ることができることを示す。
論文 参考訳(メタデータ) (2023-09-30T18:52:57Z) - Evaluating The Robustness of Self-Supervised Representations to
Background/Foreground Removal [4.007351600492541]
DINOv2, MAE, SwaVといった最先端のSSL事前トレーニングモデルを検討し, 4つの画像分類データセットの表現レベルの変化を分析した。
経験的に、すべてのモデルが前景、背景、および完全なイメージを分離する表現につながるわけではない。
論文 参考訳(メタデータ) (2023-06-02T09:46:22Z) - Boosting Few-shot Fine-grained Recognition with Background Suppression
and Foreground Alignment [53.401889855278704]
FS-FGR (Few-shot Fine-fine Recognition) は、限られたサンプルの助けを借りて、新しいきめ細かなカテゴリを認識することを目的としている。
本研究では,背景アクティベーション抑制 (BAS) モジュール,フォアグラウンドオブジェクトアライメント (FOA) モジュール,および局所的局所的(L2L) 類似度測定器からなる2段階の背景アライメントとフォアグラウンドアライメントフレームワークを提案する。
複数のベンチマークで行った実験により,提案手法は既存の最先端技術よりも大きなマージンで優れていることが示された。
論文 参考訳(メタデータ) (2022-10-04T07:54:40Z) - Deep Learning-Based Defect Classification and Detection in SEM Images [1.9206693386750882]
特に、異なるResNet、VGGNetアーキテクチャをバックボーンとして使用するRetinaNetモデルをトレーニングする。
そこで本研究では,異なるモデルからの出力予測を組み合わせることで,欠陥の分類と検出に優れた性能を実現するための選好に基づくアンサンブル戦略を提案する。
論文 参考訳(メタデータ) (2022-06-20T16:34:11Z) - A Comprehensive Study of Image Classification Model Sensitivity to
Foregrounds, Backgrounds, and Visual Attributes [58.633364000258645]
このデータセットをRIVAL10と呼びます。
本研究では,前景,背景,属性の騒音劣化に対する幅広いモデルの感度を評価する。
本稿では,多種多様な最先端アーキテクチャ (ResNets, Transformers) とトレーニング手順 (CLIP, SimCLR, DeiT, Adversarial Training) について考察する。
論文 参考訳(メタデータ) (2022-01-26T06:31:28Z) - Object-aware Contrastive Learning for Debiased Scene Representation [74.30741492814327]
オブジェクトを自己教師型でローカライズする,オブジェクト認識型コントラスト学習フレームワークを開発した。
また、コントラCAM、オブジェクト認識型乱作、背景混合に基づく2つのデータ拡張を導入し、コントラスト型自己教師型学習における文脈バイアスと背景バイアスを低減した。
論文 参考訳(メタデータ) (2021-07-30T19:24:07Z) - A Hierarchical Transformation-Discriminating Generative Model for Few
Shot Anomaly Detection [93.38607559281601]
各トレーニングイメージのマルチスケールパッチ分布をキャプチャする階層的生成モデルを開発した。
この異常スコアは、スケール及び画像領域にわたる正しい変換のパッチベースの投票を集約して得られる。
論文 参考訳(メタデータ) (2021-04-29T17:49:48Z) - Semantic Change Detection with Asymmetric Siamese Networks [71.28665116793138]
2つの空中画像が与えられた場合、セマンティックチェンジ検出は、土地被覆のバリエーションを特定し、それらの変化タイプをピクセルワイド境界で識別することを目的としている。
この問題は、正確な都市計画や天然資源管理など、多くの地球ビジョンに関連するタスクにおいて不可欠である。
本研究では, 広く異なる構造を持つモジュールから得られた特徴対を用いて意味変化を同定し, 同定するための非対称システマネットワーク(ASN)を提案する。
論文 参考訳(メタデータ) (2020-10-12T13:26:30Z) - Distilling Localization for Self-Supervised Representation Learning [82.79808902674282]
コントラスト学習は教師なし表現学習に革命をもたらした。
現在のコントラストモデルでは、前景オブジェクトのローカライズには効果がない。
本稿では,背景変化を学習するためのデータ駆動型手法を提案する。
論文 参考訳(メタデータ) (2020-04-14T16:29:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。