論文の概要: Learning Color Equivariant Representations
- arxiv url: http://arxiv.org/abs/2406.09588v3
- Date: Sun, 20 Oct 2024 23:21:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-22 13:14:25.071100
- Title: Learning Color Equivariant Representations
- Title(参考訳): 色同変表現の学習
- Authors: Felix O'Mahony, Yulong Yang, Christine Allen-Blanchette,
- Abstract要約: 色変化に同値なグループ畳み込みニューラルネットワーク(GCNN)を導入する。
GCNNは、2次元と3次元の回転群からスケールのような半群への様々な幾何学的変換のために設計されている。
- 参考スコア(独自算出の注目度): 1.9594704501292781
- License:
- Abstract: In this paper, we introduce group convolutional neural networks (GCNNs) equivariant to color variation. GCNNs have been designed for a variety of geometric transformations from 2D and 3D rotation groups, to semi-groups such as scale. Despite the improved interpretability, accuracy and generalizability of these architectures, GCNNs have seen limited application in the context of perceptual quantities. Notably, the recent CEConv network uses a GCNN to achieve equivariance to hue transformations by convolving input images with a hue rotated RGB filter. However, this approach leads to invalid RGB values which break equivariance and degrade performance. We resolve these issues with a lifting layer that transforms the input image directly, thereby circumventing the issue of invalid RGB values and improving equivariance error by over three orders of magnitude. Moreover, we extend the notion of color equivariance to include equivariance to saturation shift. Our hue-, saturation-, and color-equivariant networks achieve strong generalization to out-of-distribution perceptual variations and improved sample efficiency over conventional architectures. We demonstrate the utility of our approach on synthetic and real world datasets where we consistently outperform competitive baselines.
- Abstract(参考訳): 本稿では,色変化に同値なグループ畳み込みニューラルネットワーク(GCNN)を提案する。
GCNNは、2次元と3次元の回転群からスケールのような半群への様々な幾何学的変換のために設計されている。
これらのアーキテクチャの解釈可能性、精度、一般化性の改善にもかかわらず、GCNNは知覚量という文脈において限定的な応用を見てきた。
特に、最近のCEConvネットワークは、GCNNを使用して、色回転RGBフィルタで入力画像を畳み込み、色相変換を実現する。
しかし、このアプローチは、等価性を破り性能を低下させる無効なRGB値をもたらす。
入力画像を直接変換し、無効なRGB値の問題を回避し、等分散誤差を3桁以上改善する昇降層を用いてこれらの問題を解消する。
さらに,色等分の概念を飽和シフトに含めるように拡張する。
我々の色相,彩度,色相のネットワークは,従来のアーキテクチャに比べて分布外知覚の変化を強く一般化し,サンプル効率を向上する。
我々は、競争ベースラインを一貫して上回る、合成および実世界のデータセットに対するアプローチの有用性を実証する。
関連論文リスト
- Variational Partial Group Convolutions for Input-Aware Partial Equivariance of Rotations and Color-Shifts [21.397064770689795]
グループ同変CNN(G-CNN)は、階層的特徴を同変的に捉える能力から、様々なタスクにおいて有望な有効性を示している。
本稿では,各データインスタンスに特有の部分的等値の変動レベルを捉えるための新しいアプローチとして,変分部分G-CNN(VP G-CNN)を提案する。
本稿では,M67-180,CIFAR10,ColorMNIST,Flowers102など,おもちゃと現実世界の両方のデータセットに対するVP G-CNNの有効性を示す。
論文 参考訳(メタデータ) (2024-07-05T05:52:51Z) - CVT-xRF: Contrastive In-Voxel Transformer for 3D Consistent Radiance Fields from Sparse Inputs [65.80187860906115]
スパース入力によるNeRFの性能向上のための新しい手法を提案する。
まず, サンプル線が, 3次元空間内の特定のボクセルと交差することを保証するために, ボクセルを用いた放射線サンプリング戦略を採用する。
次に、ボクセル内の追加点をランダムにサンプリングし、トランスフォーマーを適用して各線上の他の点の特性を推測し、ボリュームレンダリングに組み込む。
論文 参考訳(メタデータ) (2024-03-25T15:56:17Z) - Color Equivariant Convolutional Networks [50.655443383582124]
CNNは、偶然に記録された条件によって導入された色の変化の間にデータ不均衡がある場合、苦労する。
カラースペクトル間の形状特徴共有を可能にする新しいディープラーニングビルディングブロックであるカラー等変畳み込み(CEConvs)を提案する。
CEConvsの利点は、様々なタスクに対するダウンストリーム性能と、列車-テストの分散シフトを含む色の変化に対するロバスト性の改善である。
論文 参考訳(メタデータ) (2023-10-30T09:18:49Z) - Sorted Convolutional Network for Achieving Continuous Rotational
Invariance [56.42518353373004]
テクスチャ画像のハンドメイドな特徴に着想を得たSorting Convolution (SC)を提案する。
SCは、追加の学習可能なパラメータやデータ拡張を必要とせずに連続的な回転不変性を達成する。
以上の結果から, SCは, 上記の課題において, 最高の性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2023-05-23T18:37:07Z) - Deep Neural Networks with Efficient Guaranteed Invariances [77.99182201815763]
我々は、性能改善の問題、特にディープニューラルネットワークのサンプル複雑性に対処する。
群同変畳み込みは同変表現を得るための一般的なアプローチである。
本稿では,各ストリームが異なる変換に不変なマルチストリームアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-03-02T20:44:45Z) - Offset equivariant networks and their applications [5.617903764268157]
同変ネットワークは、入力の出力の均一なインクリメントを保存するニューラルネットワークである。
オフセット同変ネットワークの設計と実装のためのフレームワークを提案する。
実験の結果,オフセット同変ネットワークの性能は,通常のデータ上での最先端のネットワークの性能に匹敵することがわかった。
論文 参考訳(メタデータ) (2022-07-01T09:38:19Z) - Revisiting Transformation Invariant Geometric Deep Learning: Are Initial
Representations All You Need? [80.86819657126041]
変換不変および距離保存初期表現は変換不変性を達成するのに十分であることを示す。
具体的には、多次元スケーリングを変更することで、変換不変かつ距離保存された初期点表現を実現する。
我々は、TinvNNが変換不変性を厳密に保証し、既存のニューラルネットワークと組み合わせられるほど汎用的で柔軟なことを証明した。
論文 参考訳(メタデータ) (2021-12-23T03:52:33Z) - Implicit Equivariance in Convolutional Networks [1.911678487931003]
IEN(Implicitly Equivariant Networks)は標準CNNモデルの異なる層で同変を誘導する。
IENは、高速な推論速度を提供しながら、最先端の回転同変追跡法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2021-11-28T14:44:17Z) - Quantised Transforming Auto-Encoders: Achieving Equivariance to
Arbitrary Transformations in Deep Networks [23.673155102696338]
畳み込みニューラルネットワーク(CNN)は画像翻訳と等価である。
埋め込みは任意の等式関係を同時に従うオートエンコーダアーキテクチャを提案する。
いくつかのデータセット上で入力画像の変換版の再レンダリングに成功した結果を示す。
論文 参考訳(メタデータ) (2021-11-25T02:26:38Z) - Invariant Deep Compressible Covariance Pooling for Aerial Scene
Categorization [80.55951673479237]
本研究では,空気シーン分類におけるニュアンス変動を解決するために,新しい不変な深部圧縮性共分散プール (IDCCP) を提案する。
本研究では,公開空間画像データセットに関する広範な実験を行い,最先端の手法と比較して,この手法の優位性を実証する。
論文 参考訳(メタデータ) (2020-11-11T11:13:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。