論文の概要: Feature-Suppressed Contrast for Self-Supervised Food Pre-training
- arxiv url: http://arxiv.org/abs/2308.03272v1
- Date: Mon, 7 Aug 2023 03:27:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-08 15:33:53.704459
- Title: Feature-Suppressed Contrast for Self-Supervised Food Pre-training
- Title(参考訳): セルフ教師付き食品プレトレーニングのための特徴抑制コントラスト
- Authors: Xinda Liu, Yaohui Zhu, Linhu Liu, Jiang Tian, Lili Wang
- Abstract要約: 対照的な自己監督手法では、データ拡張によって画像からランダムに2つのビューが生成される。
ビュー間の相互情報を低減するためにFeaSC(FeaSC)を提案する。
プラグアンドプレイモジュールとして、提案手法は、BYOLとSimSiamを1.70%$sim$ 6.69%の分類精度で改善する。
- 参考スコア(独自算出の注目度): 20.756276811919946
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Most previous approaches for analyzing food images have relied on extensively
annotated datasets, resulting in significant human labeling expenses due to the
varied and intricate nature of such images. Inspired by the effectiveness of
contrastive self-supervised methods in utilizing unlabelled data, weiqing
explore leveraging these techniques on unlabelled food images. In contrastive
self-supervised methods, two views are randomly generated from an image by data
augmentations. However, regarding food images, the two views tend to contain
similar informative contents, causing large mutual information, which impedes
the efficacy of contrastive self-supervised learning. To address this problem,
we propose Feature Suppressed Contrast (FeaSC) to reduce mutual information
between views. As the similar contents of the two views are salient or highly
responsive in the feature map, the proposed FeaSC uses a response-aware scheme
to localize salient features in an unsupervised manner. By suppressing some
salient features in one view while leaving another contrast view unchanged, the
mutual information between the two views is reduced, thereby enhancing the
effectiveness of contrast learning for self-supervised food pre-training. As a
plug-and-play module, the proposed method consistently improves BYOL and
SimSiam by 1.70\% $\sim$ 6.69\% classification accuracy on four publicly
available food recognition datasets. Superior results have also been achieved
on downstream segmentation tasks, demonstrating the effectiveness of the
proposed method.
- Abstract(参考訳): 食品画像分析における従来のアプローチは、広範囲な注釈付きデータセットに依存しており、このような画像の多様性と複雑な性質により、人間のラベル付け費用が大幅に削減されている。
コントラッシブな自己監督手法の非ラベルデータ利用効果に触発されて、Weiqingはこれらの手法を非ラベル食品画像に活用することを探る。
対照的な自己監督手法では、データ拡張によって画像からランダムに2つのビューが生成される。
しかし, 食品画像に関しては, 類似した情報を含む傾向があり, 相互情報が多く, コントラスト的自己教師付き学習の効果を阻害している。
この問題に対処するために,ビュー間の相互情報を減らすための機能抑制コントラスト(feasc)を提案する。
この2つのビューの類似した内容は特徴マップにおいて高度または高度に応答するため、提案されたferscは応答認識スキームを使用して、教師なしの方法でサルエント特徴をローカライズする。
他方のコントラストビューを変更せず、一方の視点に有意な特徴を抑圧することにより、2つの視点間の相互情報を低減し、自己教師付き食品事前学習におけるコントラスト学習の有効性を高める。
プラグアンドプレイモジュールとして提案手法は,BYOLとSimSiamを1.70 %$\sim$ 6.69 %の分類精度で改良する。
また,提案手法の有効性を実証し,下流のセグメンテーションタスクにおいて上向きの結果が得られた。
関連論文リスト
- Stem-OB: Generalizable Visual Imitation Learning with Stem-Like Convergent Observation through Diffusion Inversion [18.990678061962825]
我々は,事前学習した画像拡散モデルを用いて低レベルの視覚的差を抑えるStem-OBを提案する。
この画像逆転過程は、観測結果を共有表現に変換するのと似ている。
提案手法は, シンプルかつ高効率なプラグアンドプレイソリューションである。
論文 参考訳(メタデータ) (2024-11-07T17:56:16Z) - Classification of Breast Cancer Histopathology Images using a Modified Supervised Contrastive Learning Method [4.303291247305105]
モデルロバスト性を高めるために、画像レベルラベルとドメイン固有の拡張の両方を活用することで教師付きコントラスト学習法を改善する。
乳癌の病理組織像から得られたBreakHisデータセットについて検討した。
この改良は93.63%の絶対精度に対応し、データの特性を利用してより適切な表現空間を学習するアプローチの有効性を強調した。
論文 参考訳(メタデータ) (2024-05-06T17:06:11Z) - Transferring Knowledge for Food Image Segmentation using Transformers
and Convolutions [65.50975507723827]
食品画像のセグメンテーションは、食品の皿の栄養価を推定するなど、ユビキタスな用途を持つ重要なタスクである。
1つの課題は、食品が重なり合ったり混ざったりし、区別が難しいことだ。
2つのモデルが訓練され、比較される。1つは畳み込みニューラルネットワークに基づくもので、もう1つは画像変換器(BEiT)のための双方向表現に関するものである。
BEiTモデルは、FoodSeg103上の49.4の結合の平均的交点を達成することで、従来の最先端モデルよりも優れている。
論文 参考訳(メタデータ) (2023-06-15T15:38:10Z) - Unsupervised Feature Clustering Improves Contrastive Representation
Learning for Medical Image Segmentation [18.75543045234889]
自己監督型インスタンス識別は、特徴表現を学習し、限られた医用画像アノテーションに対処する効果的なコントラスト的前提課題である。
本稿では,教師なし特徴クラスタリングを用いた自己教師付きコントラスト学習手法を提案する。
本手法は,これらの課題に対して,最先端の自己監督型コントラスト技術より優れる。
論文 参考訳(メタデータ) (2022-11-15T22:54:29Z) - Mix-up Self-Supervised Learning for Contrast-agnostic Applications [33.807005669824136]
コントラストに依存しないアプリケーションのための,最初の混合型自己教師型学習フレームワークを提案する。
クロスドメイン・ミックスアップに基づく画像間の低分散に対処し、画像再構成と透明性予測に基づくプレテキストタスクを構築する。
論文 参考訳(メタデータ) (2022-04-02T16:58:36Z) - Focus on the Positives: Self-Supervised Learning for Biodiversity
Monitoring [9.086207853136054]
ラベルのない画像コレクションから自己教師付き表現を学習する問題に対処する。
我々は,入力画像間の空間的関係や時間的関係などの情報を符号化する,手軽に利用可能なコンテキストデータを利用する。
地球生物多様性監視の重要課題として、人間の監督が限定された視覚的種分類タスクに適応可能な画像特徴があげられる。
論文 参考訳(メタデータ) (2021-08-14T01:12:41Z) - Object-aware Contrastive Learning for Debiased Scene Representation [74.30741492814327]
オブジェクトを自己教師型でローカライズする,オブジェクト認識型コントラスト学習フレームワークを開発した。
また、コントラCAM、オブジェクト認識型乱作、背景混合に基づく2つのデータ拡張を導入し、コントラスト型自己教師型学習における文脈バイアスと背景バイアスを低減した。
論文 参考訳(メタデータ) (2021-07-30T19:24:07Z) - Understanding Adversarial Examples from the Mutual Influence of Images
and Perturbations [83.60161052867534]
クリーンな画像と敵の摂動を遠ざけることで敵の例を分析し,その相互への影響を分析した。
以上の結果から,画像と普遍摂動の関係に対する新たな視点が示唆された。
我々は、オリジナルトレーニングデータを活用することなく、目標とするユニバーサルアタックの挑戦的なタスクを最初に達成した人物です。
論文 参考訳(メタデータ) (2020-07-13T05:00:09Z) - Unsupervised Landmark Learning from Unpaired Data [117.81440795184587]
教師なしランドマーク学習の最近の試みは、外観は似ているがポーズでは異なる合成画像対を活用する。
本稿では,2回スワッピング・リコンストラクション・ストラテジーを適用して最終監視を行うクロスイメージ・サイクル整合性フレームワークを提案する。
提案するフレームワークは,強いベースラインを大きなマージンで上回ることを示す。
論文 参考訳(メタデータ) (2020-06-29T13:57:20Z) - Distilling Localization for Self-Supervised Representation Learning [82.79808902674282]
コントラスト学習は教師なし表現学習に革命をもたらした。
現在のコントラストモデルでは、前景オブジェクトのローカライズには効果がない。
本稿では,背景変化を学習するためのデータ駆動型手法を提案する。
論文 参考訳(メタデータ) (2020-04-14T16:29:42Z) - Cross-Modal Food Retrieval: Learning a Joint Embedding of Food Images
and Recipes with Semantic Consistency and Attention Mechanism [70.85894675131624]
画像とレシピを共通の特徴空間に埋め込み、対応する画像とレシピの埋め込みが互いに近接するように学習する。
本稿では,2つのモダリティの埋め込みを正規化するためのセマンティック・一貫性とアテンション・ベース・ネットワーク(SCAN)を提案する。
食品画像や調理レシピの最先端のクロスモーダル検索戦略を,かなりの差で達成できることが示される。
論文 参考訳(メタデータ) (2020-03-09T07:41:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。