論文の概要: CLIC: Contrastive Learning Framework for Unsupervised Image Complexity Representation
- arxiv url: http://arxiv.org/abs/2411.12792v2
- Date: Fri, 25 Apr 2025 00:38:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-28 18:47:07.360336
- Title: CLIC: Contrastive Learning Framework for Unsupervised Image Complexity Representation
- Title(参考訳): CLIC: 教師なし画像複雑度表現のためのコントラスト学習フレームワーク
- Authors: Shipeng Liu, Liang Zhao, Dengfeng Chen,
- Abstract要約: 画像の複雑さは人間の知覚とコンピュータビジョンモデルの性能に大きな影響を及ぼす。
情報エントロピーや圧縮比のような伝統的な指標は、しばしば粗大で信頼できない見積もりをもたらす。
画像複雑度表現学習のためのコントラスト学習に基づく教師なしフレームワークCLICを提案する。
- 参考スコア(独自算出の注目度): 4.576994000198904
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As a fundamental visual attribute, image complexity significantly influences both human perception and the performance of computer vision models. However, accurately assessing and quantifying image complexity remains a challenging task. (1) Traditional metrics such as information entropy and compression ratio often yield coarse and unreliable estimates. (2) Data-driven methods require expensive manual annotations and are inevitably affected by human subjective biases. To address these issues, we propose CLIC, an unsupervised framework based on Contrastive Learning for learning Image Complexity representations. CLIC learns complexity-aware features from unlabeled data, thereby eliminating the need for costly labeling. Specifically, we design a novel positive and negative sample selection strategy to enhance the discrimination of complexity features. Additionally, we introduce a complexity-aware loss function guided by image priors to further constrain the learning process. Extensive experiments validate the effectiveness of CLIC in capturing image complexity. When fine-tuned with a small number of labeled samples from IC9600, CLIC achieves performance competitive with supervised methods. Moreover, applying CLIC to downstream tasks consistently improves performance. Notably, both the pretraining and application processes of CLIC are free from subjective bias.
- Abstract(参考訳): 基本的な視覚特性として、画像の複雑さは人間の知覚とコンピュータビジョンモデルの性能の両方に大きく影響する。
しかし、画像の複雑さを正確に評価し定量化することは依然として難しい課題である。
1)情報エントロピーや圧縮比といった伝統的な指標は、しばしば粗大で信頼性の低い見積もりをもたらす。
2)データ駆動手法は高価な手作業のアノテーションを必要とするため,人間の主観的偏見に必然的に影響される。
これらの課題に対処するため,画像複雑度表現学習のためのコントラスト学習に基づく教師なしフレームワークCLICを提案する。
CLICはラベルのないデータから複雑性を意識した機能を学び、コストのかかるラベル付けを不要にする。
具体的には、複雑性特徴の識別を強化するために、新規な正および負のサンプル選択戦略を設計する。
さらに,画像先行者によって導かれる複雑性を考慮した損失関数を導入し,学習過程をさらに制約する。
画像の複雑さを捉えるためのCLICの有効性を広範囲にわたる実験で検証した。
IC9600から少量のラベル付きサンプルを微調整すると、CLICは教師付きメソッドと競合するパフォーマンスを実現する。
さらに、下流タスクにCLICを適用することで、パフォーマンスが継続的に向上する。
特に、CLICの事前学習と適用プロセスは、主観的バイアスを伴わない。
関連論文リスト
- CLICv2: Image Complexity Representation via Content Invariance Contrastive Learning [4.576994000198904]
教師なし画像の複雑性表現は、正のサンプル選択のバイアスや、画像の内容に対する感受性に悩まされることが多い。
複雑性表現のためのコンテンツ不変性を強制するコントラスト学習フレームワークであるCLICv2を提案する。
論文 参考訳(メタデータ) (2025-03-09T14:40:36Z) - Picking the Cream of the Crop: Visual-Centric Data Selection with Collaborative Agents [62.616106562146776]
textbfVisual-Centric textbfSelection approach by textbfAgents Collaboration (ViSA)を提案する。
提案手法は,(1)視覚エージェントの協調による画像情報定量化手法により,リッチな視覚情報を持つ画像を選択する方法,(2)高品質な画像に関連する高品質な画像を選択する視覚中心の指示品質評価手法からなる。
論文 参考訳(メタデータ) (2025-02-27T09:37:30Z) - Contrastive Learning for Image Complexity Representation [4.189743697330807]
教師付き学習は、よく注釈付けされたデータセットから画像の複雑さの特徴を効果的に学習することができる。
画像の複雑さを表現するために,CLICというコントラスト学習を提案する。
RCMは、多スケールの局所作物からなる正のサンプルを生成することができる。
論文 参考訳(メタデータ) (2024-08-06T14:44:55Z) - One-Shot Image Restoration [0.0]
提案手法の適用性, 堅牢性, 計算効率を, 教師付き画像の劣化と超解像に応用できることを実験的に示す。
本結果は,学習モデルのサンプル効率,一般化,時間複雑性を大幅に改善したことを示す。
論文 参考訳(メタデータ) (2024-04-26T14:03:23Z) - Visual Imitation Learning with Calibrated Contrastive Representation [44.63125396964309]
AIL(Adversarial Imitation Learning)は、エージェントが低次元の状態と行動で専門家の行動を再現することを可能にする。
本稿では、視覚的AILフレームワークにコントラスト型代表学習を組み込むことにより、シンプルで効果的な解を提案する。
論文 参考訳(メタデータ) (2024-01-21T04:18:30Z) - CUCL: Codebook for Unsupervised Continual Learning [129.91731617718781]
本研究は,教師なし連続学習(UCL)の代替として,教師なし連続学習(UCL)に焦点を当てている。
本稿では,教師なし連続学習のためのCodebook for Unsupervised Continual Learning (CUCL) という手法を提案する。
本手法は教師なしおよび教師なしの手法の性能を大幅に向上させる。
論文 参考訳(メタデータ) (2023-11-25T03:08:50Z) - Towards Generic Image Manipulation Detection with Weakly-Supervised
Self-Consistency Learning [49.43362803584032]
本稿では,弱い教師付き画像操作検出を提案する。
このような設定は、より多くのトレーニングイメージを活用することができ、新しい操作テクニックに迅速に適応する可能性がある。
マルチソース整合性(MSC)とパッチ整合性(IPC)の2つの一貫性特性が学習される。
論文 参考訳(メタデータ) (2023-09-03T19:19:56Z) - Exploring CLIP for Assessing the Look and Feel of Images [87.97623543523858]
ゼロショット方式で画像の品質知覚(ルック)と抽象知覚(フィール)の両方を評価するために,コントラスト言語-画像事前学習(CLIP)モデルを導入する。
以上の結果から,CLIPは知覚的評価によく適合する有意義な先行情報を捉えることが示唆された。
論文 参考訳(メタデータ) (2022-07-25T17:58:16Z) - Real-World Image Super-Resolution by Exclusionary Dual-Learning [98.36096041099906]
実世界の画像超解像は,高品質な画像を得るための実用的な画像復元問題である。
深層学習に基づく手法は、現実世界の超解像データセットの復元に期待できる品質を実現している。
本稿では,RWSR-EDL(Real-World Image Super-Resolution by Exclusionary Dual-Learning)を提案する。
論文 参考訳(メタデータ) (2022-06-06T13:28:15Z) - A Practical Contrastive Learning Framework for Single-Image
Super-Resolution [51.422185656787285]
コントラスト学習に基づく単一画像の超解像を2つの視点から検討する。
SISR のための実践的コントラスト学習フレームワーク PCL-SR を提案する。
既存のベンチマーク手法と比較して,提案手法をPCL-SRフレームワークで再学習し,優れた性能を実現する。
論文 参考訳(メタデータ) (2021-11-27T15:42:12Z) - Visual Adversarial Imitation Learning using Variational Models [60.69745540036375]
逆関数仕様は、深い強化学習を通しての学習行動にとって大きな障害であり続けている。
望ましい行動の視覚的なデモンストレーションは、エージェントを教えるためのより簡単で自然な方法を示すことが多い。
変動モデルに基づく対向的模倣学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-07-16T00:15:18Z) - AugNet: End-to-End Unsupervised Visual Representation Learning with
Image Augmentation [3.6790362352712873]
我々は、未ラベル画像の集合から画像特徴を学習するための新しいディープラーニングトレーニングパラダイムであるAugNetを提案する。
実験により,低次元空間における画像の表現が可能であることを実証した。
多くのディープラーニングベースの画像検索アルゴリズムとは異なり、我々のアプローチは外部アノテーション付きデータセットへのアクセスを必要としない。
論文 参考訳(メタデータ) (2021-06-11T09:02:30Z) - Curious Representation Learning for Embodied Intelligence [81.21764276106924]
近年,自己指導型表現学習は顕著な成功を収めている。
しかし、真にインテリジェントなエージェントを構築するためには、環境から学習できる表現学習アルゴリズムを構築する必要がある。
本稿では,強化学習方針と視覚的表現モデルを同時に学習する,好奇心をそそる表現学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-05-03T17:59:20Z) - Unsupervised Person Re-identification via Softened Similarity Learning [122.70472387837542]
人物再識別(re-ID)はコンピュータビジョンにおいて重要なトピックである。
本稿では,ラベル付き情報を必要としないre-IDの教師なし設定について検討する。
2つの画像ベースおよびビデオベースデータセットの実験は、最先端のパフォーマンスを示している。
論文 参考訳(メタデータ) (2020-04-07T17:16:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。