論文の概要: CLIC: Contrastive Learning Framework for Unsupervised Image Complexity Representation
- arxiv url: http://arxiv.org/abs/2411.12792v1
- Date: Tue, 19 Nov 2024 16:03:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-21 16:12:24.810903
- Title: CLIC: Contrastive Learning Framework for Unsupervised Image Complexity Representation
- Title(参考訳): CLIC: 教師なし画像複雑度表現のためのコントラスト学習フレームワーク
- Authors: Shipeng Liu, Liang Zhao, Dengfeng Chen,
- Abstract要約: 画像の複雑性表現を学習するためのコントラスト学習に基づく教師なしフレームワークCLICを提案する。
この手法はラベルのないデータから画像の複雑さの特徴を学習し、高いラベル付けコストを回避する。
結果は,CLICが画像複雑性表現を効果的に学習できることを示唆している。
- 参考スコア(独自算出の注目度): 4.576994000198904
- License:
- Abstract: As an essential visual attribute, image complexity affects human image comprehension and directly influences the performance of computer vision tasks. However, accurately assessing and quantifying image complexity faces significant challenges. Previous works needed more generalization capabilities and well-labeled datasets to learn image complexity features. However, creating such datasets requires expensive manual labeling costs, and the models inevitably learn about human subjective biases. To address the above problems, we propose CLIC, an unsupervised framework based on contrastive learning, for learning image complexity representations. The method learns image complexity features on unlabeled data, avoiding the high labeling cost. Specifically, we propose a unique positive and negative sample selection strategy to reinforce the differences in complexity features. At the same time, we introduce an image prior-based Complexity-Aware Loss to constrain the learning process of the model. We conducted extensive experiments for verification, and the results show that CLIC can effectively learn the image complexity representation. CLIC obtained competitive results with supervised methods by fine-tuning on IC9600. In addition, CLIC applied to downstream tasks shows significant performance improvements, demonstrating the potential for application in various real-world scenarios. \href{https://github.com/xauat-liushipeng/CLIC}{code}
- Abstract(参考訳): 画像の複雑さは人間のイメージ理解に影響を与え、コンピュータビジョンタスクのパフォーマンスに直接影響を及ぼす。
しかし、画像の複雑さを正確に評価し定量化することは重大な課題に直面している。
以前の作業では、画像複雑性機能を学ぶために、より一般化機能と十分なラベル付きデータセットが必要だった。
しかし、そのようなデータセットを作成するには、高価な手動ラベリングコストが必要であり、モデルは必然的に人間の主観的バイアスについて学習する。
上記の問題に対処するために,コントラスト学習に基づく教師なしフレームワークCLICを提案する。
この手法はラベルのないデータから画像の複雑さの特徴を学習し、高いラベル付けコストを回避する。
具体的には、複雑性の特徴の差を強化するために、特異な正と負のサンプル選択戦略を提案する。
同時に、モデルの学習過程を制約するために、画像に先行した複雑度認識損失を導入する。
検証実験を行った結果,CLICが画像複雑性表現を効果的に学習できることが判明した。
CLICはIC9600の微調整による教師あり手法と競合する結果を得た。
さらに、下流タスクに適用されたCLICでは、パフォーマンスが大幅に向上し、さまざまな現実シナリオにおけるアプリケーションの可能性を示している。
\href{https://github.com/xauat-liushipeng/Clic}{code}
関連論文リスト
- Contrastive Learning for Image Complexity Representation [4.189743697330807]
教師付き学習は、よく注釈付けされたデータセットから画像の複雑さの特徴を効果的に学習することができる。
画像の複雑さを表現するために,CLICというコントラスト学習を提案する。
RCMは、多スケールの局所作物からなる正のサンプルを生成することができる。
論文 参考訳(メタデータ) (2024-08-06T14:44:55Z) - One-Shot Image Restoration [0.0]
提案手法の適用性, 堅牢性, 計算効率を, 教師付き画像の劣化と超解像に応用できることを実験的に示す。
本結果は,学習モデルのサンプル効率,一般化,時間複雑性を大幅に改善したことを示す。
論文 参考訳(メタデータ) (2024-04-26T14:03:23Z) - Visual Imitation Learning with Calibrated Contrastive Representation [44.63125396964309]
AIL(Adversarial Imitation Learning)は、エージェントが低次元の状態と行動で専門家の行動を再現することを可能にする。
本稿では、視覚的AILフレームワークにコントラスト型代表学習を組み込むことにより、シンプルで効果的な解を提案する。
論文 参考訳(メタデータ) (2024-01-21T04:18:30Z) - Towards Generic Image Manipulation Detection with Weakly-Supervised
Self-Consistency Learning [49.43362803584032]
本稿では,弱い教師付き画像操作検出を提案する。
このような設定は、より多くのトレーニングイメージを活用することができ、新しい操作テクニックに迅速に適応する可能性がある。
マルチソース整合性(MSC)とパッチ整合性(IPC)の2つの一貫性特性が学習される。
論文 参考訳(メタデータ) (2023-09-03T19:19:56Z) - Exploring CLIP for Assessing the Look and Feel of Images [87.97623543523858]
ゼロショット方式で画像の品質知覚(ルック)と抽象知覚(フィール)の両方を評価するために,コントラスト言語-画像事前学習(CLIP)モデルを導入する。
以上の結果から,CLIPは知覚的評価によく適合する有意義な先行情報を捉えることが示唆された。
論文 参考訳(メタデータ) (2022-07-25T17:58:16Z) - Real-World Image Super-Resolution by Exclusionary Dual-Learning [98.36096041099906]
実世界の画像超解像は,高品質な画像を得るための実用的な画像復元問題である。
深層学習に基づく手法は、現実世界の超解像データセットの復元に期待できる品質を実現している。
本稿では,RWSR-EDL(Real-World Image Super-Resolution by Exclusionary Dual-Learning)を提案する。
論文 参考訳(メタデータ) (2022-06-06T13:28:15Z) - A Practical Contrastive Learning Framework for Single-Image
Super-Resolution [51.422185656787285]
コントラスト学習に基づく単一画像の超解像を2つの視点から検討する。
SISR のための実践的コントラスト学習フレームワーク PCL-SR を提案する。
既存のベンチマーク手法と比較して,提案手法をPCL-SRフレームワークで再学習し,優れた性能を実現する。
論文 参考訳(メタデータ) (2021-11-27T15:42:12Z) - Visual Adversarial Imitation Learning using Variational Models [60.69745540036375]
逆関数仕様は、深い強化学習を通しての学習行動にとって大きな障害であり続けている。
望ましい行動の視覚的なデモンストレーションは、エージェントを教えるためのより簡単で自然な方法を示すことが多い。
変動モデルに基づく対向的模倣学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-07-16T00:15:18Z) - AugNet: End-to-End Unsupervised Visual Representation Learning with
Image Augmentation [3.6790362352712873]
我々は、未ラベル画像の集合から画像特徴を学習するための新しいディープラーニングトレーニングパラダイムであるAugNetを提案する。
実験により,低次元空間における画像の表現が可能であることを実証した。
多くのディープラーニングベースの画像検索アルゴリズムとは異なり、我々のアプローチは外部アノテーション付きデータセットへのアクセスを必要としない。
論文 参考訳(メタデータ) (2021-06-11T09:02:30Z) - Curious Representation Learning for Embodied Intelligence [81.21764276106924]
近年,自己指導型表現学習は顕著な成功を収めている。
しかし、真にインテリジェントなエージェントを構築するためには、環境から学習できる表現学習アルゴリズムを構築する必要がある。
本稿では,強化学習方針と視覚的表現モデルを同時に学習する,好奇心をそそる表現学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-05-03T17:59:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。