論文の概要: The Influences of Color and Shape Features in Visual Contrastive
Learning
- arxiv url: http://arxiv.org/abs/2301.12459v1
- Date: Sun, 29 Jan 2023 15:10:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-31 16:56:28.520901
- Title: The Influences of Color and Shape Features in Visual Contrastive
Learning
- Title(参考訳): 視覚コントラスト学習における色と形状の特徴の影響
- Authors: Xiaoqi Zhuang
- Abstract要約: 本稿では,個々の画像特徴(色や形状など)がモデル性能に与える影響について検討する。
実験結果から、教師付き表現と比較して、コントラスト表現は類似した色を持つオブジェクトとクラスタリングする傾向にあることが示された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the field of visual representation learning, performance of contrastive
learning has been catching up with the supervised method which is commonly a
classification convolutional neural network. However, most of the research work
focuses on improving the accuracy of downstream tasks such as image
classification and object detection. For visual contrastive learning, the
influences of individual image features (e.g., color and shape) to model
performance remain ambiguous.
This paper investigates such influences by designing various ablation
experiments, the results of which are evaluated by specifically designed
metrics. While these metrics are not invented by us, we first use them in the
field of representation evaluation. Specifically, we assess the contribution of
two primary image features (i.e., color and shape) in a quantitative way.
Experimental results show that compared with supervised representations,
contrastive representations tend to cluster with objects of similar color in
the representation space, and contain less shape information than supervised
representations. Finally, we discuss that the current data augmentation is
responsible for these results. We believe that exploring an unsupervised
augmentation method that
- Abstract(参考訳): 視覚表現学習の分野では、一般的には分類畳み込みニューラルネットワークである教師あり学習法(supervised method)にコントラスト学習の性能が追いつきつつある。
しかし,研究の大部分は,画像分類や物体検出などの下流タスクの精度向上に重点を置いている。
視覚的コントラスト学習では、個々の画像特徴(色や形状など)がモデル性能に与える影響はあいまいである。
本稿では,種々のアブレーション実験をデザインし,その影響について検討した。
これらのメトリクスは私たちが発明したものではありませんが、まず表現評価の分野で使用します。
具体的には,2つの画像特徴(色と形状)を定量的に評価する。
実験結果から, 教師付き表現と比較すると, コントラッシブ表現は表現空間に類似した色を持つオブジェクトをクラスタリングし, 教師付き表現よりも少ない形状情報を含む傾向が示された。
最後に、これらの結果に対して、現在のデータ拡張が責任を負うことを議論する。
教師なしの増補法の探求は
関連論文リスト
- What Makes Pre-Trained Visual Representations Successful for Robust
Manipulation? [57.92924256181857]
照明やシーンテクスチャの微妙な変化の下では,操作や制御作業のために設計された視覚表現が必ずしも一般化されないことがわかった。
創発的セグメンテーション能力は,ViTモデルにおける分布外一般化の強い予測因子であることがわかった。
論文 参考訳(メタデータ) (2023-11-03T18:09:08Z) - ColorSense: A Study on Color Vision in Machine Visual Recognition [57.916512479603064]
視覚認識ベンチマークから,前景や背景色ラベルの非自明なアノテーション110,000点を収集する。
色識別のレベルがマシン認識モデルの性能に与える影響を実証することにより、データセットの使用を検証した。
その結果,分類や局所化などの物体認識タスクは,色覚バイアスの影響を受けやすいことが示唆された。
論文 参考訳(メタデータ) (2022-12-16T18:51:41Z) - Unsupervised Feature Clustering Improves Contrastive Representation
Learning for Medical Image Segmentation [18.75543045234889]
自己監督型インスタンス識別は、特徴表現を学習し、限られた医用画像アノテーションに対処する効果的なコントラスト的前提課題である。
本稿では,教師なし特徴クラスタリングを用いた自己教師付きコントラスト学習手法を提案する。
本手法は,これらの課題に対して,最先端の自己監督型コントラスト技術より優れる。
論文 参考訳(メタデータ) (2022-11-15T22:54:29Z) - Supervised Contrastive Learning for Affect Modelling [2.570570340104555]
情報に影響を及ぼすことを考慮に入れた訓練表現のための3つの異なる教師付きコントラスト学習手法を導入する。
その結果、コントラスト学習の表現能力と、影響モデルの精度を高めるための効率が示された。
論文 参考訳(メタデータ) (2022-08-25T17:40:19Z) - Exploring CLIP for Assessing the Look and Feel of Images [87.97623543523858]
ゼロショット方式で画像の品質知覚(ルック)と抽象知覚(フィール)の両方を評価するために,コントラスト言語-画像事前学習(CLIP)モデルを導入する。
以上の結果から,CLIPは知覚的評価によく適合する有意義な先行情報を捉えることが示唆された。
論文 参考訳(メタデータ) (2022-07-25T17:58:16Z) - Object-aware Contrastive Learning for Debiased Scene Representation [74.30741492814327]
オブジェクトを自己教師型でローカライズする,オブジェクト認識型コントラスト学習フレームワークを開発した。
また、コントラCAM、オブジェクト認識型乱作、背景混合に基づく2つのデータ拡張を導入し、コントラスト型自己教師型学習における文脈バイアスと背景バイアスを低減した。
論文 参考訳(メタデータ) (2021-07-30T19:24:07Z) - Impacts of the Numbers of Colors and Shapes on Outlier Detection: from
Automated to User Evaluation [1.7205106391379026]
本稿では,視覚探索理論を情報可視化コンテキストに拡張することで,そのテーマに寄与する。
ランダムに並べられた気晴らしのグリッドに未知のアウトリーヤを見つけるよう被験者に依頼される視覚的検索タスクを検討する。
その結果,外乱率のエンコードに使用される視覚的属性の数が主な難易度であることがわかった。
論文 参考訳(メタデータ) (2021-03-10T14:35:53Z) - Demystifying Contrastive Self-Supervised Learning: Invariances,
Augmentations and Dataset Biases [34.02639091680309]
近年のパフォーマンス向上は、インスタンス分類モデルをトレーニングし、各イメージを扱い、拡張バージョンを単一のクラスのサンプルとして扱うことで実現している。
我々は,MOCO や PIRL のようなアプローチがオクルージョン不変表現を学習することを示した。
第2に、Imagenetのようなクリーンなオブジェクト中心のトレーニングデータセットにアクセスすることで、これらのアプローチがさらに利益を得ることを示す。
論文 参考訳(メタデータ) (2020-07-28T00:11:31Z) - Seeing eye-to-eye? A comparison of object recognition performance in
humans and deep convolutional neural networks under image manipulation [0.0]
本研究では,ヒトとフィードフォワードニューラルネットワークの視覚コア物体認識性能の行動比較を目的とした。
精度分析の結果、人間はDCNNを全ての条件で上回るだけでなく、形状や色の変化に対する強い堅牢性も示している。
論文 参考訳(メタデータ) (2020-07-13T10:26:30Z) - Learning What Makes a Difference from Counterfactual Examples and
Gradient Supervision [57.14468881854616]
ニューラルネットワークの一般化能力を改善するための補助的学習目標を提案する。
我々は、異なるラベルを持つ最小差の例のペア、すなわち反ファクトまたはコントラストの例を使用し、タスクの根底にある因果構造を示す信号を与える。
このテクニックで訓練されたモデルは、配布外テストセットのパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2020-04-20T02:47:49Z) - Distilling Localization for Self-Supervised Representation Learning [82.79808902674282]
コントラスト学習は教師なし表現学習に革命をもたらした。
現在のコントラストモデルでは、前景オブジェクトのローカライズには効果がない。
本稿では,背景変化を学習するためのデータ駆動型手法を提案する。
論文 参考訳(メタデータ) (2020-04-14T16:29:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。