論文の概要: Learning Color Equivariant Representations
- arxiv url: http://arxiv.org/abs/2406.09588v3
- Date: Sun, 20 Oct 2024 23:21:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-22 13:14:25.071100
- Title: Learning Color Equivariant Representations
- Title(参考訳): 色同変表現の学習
- Authors: Felix O'Mahony, Yulong Yang, Christine Allen-Blanchette,
- Abstract要約: 色変化に同値なグループ畳み込みニューラルネットワーク(GCNN)を導入する。
GCNNは、2次元と3次元の回転群からスケールのような半群への様々な幾何学的変換のために設計されている。
- 参考スコア(独自算出の注目度): 1.9594704501292781
- License:
- Abstract: In this paper, we introduce group convolutional neural networks (GCNNs) equivariant to color variation. GCNNs have been designed for a variety of geometric transformations from 2D and 3D rotation groups, to semi-groups such as scale. Despite the improved interpretability, accuracy and generalizability of these architectures, GCNNs have seen limited application in the context of perceptual quantities. Notably, the recent CEConv network uses a GCNN to achieve equivariance to hue transformations by convolving input images with a hue rotated RGB filter. However, this approach leads to invalid RGB values which break equivariance and degrade performance. We resolve these issues with a lifting layer that transforms the input image directly, thereby circumventing the issue of invalid RGB values and improving equivariance error by over three orders of magnitude. Moreover, we extend the notion of color equivariance to include equivariance to saturation shift. Our hue-, saturation-, and color-equivariant networks achieve strong generalization to out-of-distribution perceptual variations and improved sample efficiency over conventional architectures. We demonstrate the utility of our approach on synthetic and real world datasets where we consistently outperform competitive baselines.
- Abstract(参考訳): 本稿では,色変化に同値なグループ畳み込みニューラルネットワーク(GCNN)を提案する。
GCNNは、2次元と3次元の回転群からスケールのような半群への様々な幾何学的変換のために設計されている。
これらのアーキテクチャの解釈可能性、精度、一般化性の改善にもかかわらず、GCNNは知覚量という文脈において限定的な応用を見てきた。
特に、最近のCEConvネットワークは、GCNNを使用して、色回転RGBフィルタで入力画像を畳み込み、色相変換を実現する。
しかし、このアプローチは、等価性を破り性能を低下させる無効なRGB値をもたらす。
入力画像を直接変換し、無効なRGB値の問題を回避し、等分散誤差を3桁以上改善する昇降層を用いてこれらの問題を解消する。
さらに,色等分の概念を飽和シフトに含めるように拡張する。
我々の色相,彩度,色相のネットワークは,従来のアーキテクチャに比べて分布外知覚の変化を強く一般化し,サンプル効率を向上する。
我々は、競争ベースラインを一貫して上回る、合成および実世界のデータセットに対するアプローチの有用性を実証する。
関連論文リスト
- Color Equivariant Convolutional Networks [50.655443383582124]
CNNは、偶然に記録された条件によって導入された色の変化の間にデータ不均衡がある場合、苦労する。
カラースペクトル間の形状特徴共有を可能にする新しいディープラーニングビルディングブロックであるカラー等変畳み込み(CEConvs)を提案する。
CEConvsの利点は、様々なタスクに対するダウンストリーム性能と、列車-テストの分散シフトを含む色の変化に対するロバスト性の改善である。
論文 参考訳(メタデータ) (2023-10-30T09:18:49Z) - Self-Supervised Learning for Group Equivariant Neural Networks [75.62232699377877]
群同変ニューラルネットワーク(英: Group equivariant Neural Network)は、入力の変換で通勤する構造に制限されたモデルである。
自己教師型タスクには、同変プリテキストラベルと異変コントラスト損失という2つの概念を提案する。
標準画像認識ベンチマークの実験では、同変ニューラルネットワークが提案された自己教師型タスクを利用することを示した。
論文 参考訳(メタデータ) (2023-03-08T08:11:26Z) - Deep Neural Networks with Efficient Guaranteed Invariances [77.99182201815763]
我々は、性能改善の問題、特にディープニューラルネットワークのサンプル複雑性に対処する。
群同変畳み込みは同変表現を得るための一般的なアプローチである。
本稿では,各ストリームが異なる変換に不変なマルチストリームアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-03-02T20:44:45Z) - Learning Invariant Representations for Equivariant Neural Networks Using
Orthogonal Moments [9.680414207552722]
標準畳み込みニューラルネットワーク(CNN)の畳み込み層は、翻訳と等価である。
近年,従来のCNNの層を同変畳み込み,プーリング,バッチ正規化に置き換えた新しいCNNのクラスが提案されている。
論文 参考訳(メタデータ) (2022-09-22T11:48:39Z) - Offset equivariant networks and their applications [5.617903764268157]
同変ネットワークは、入力の出力の均一なインクリメントを保存するニューラルネットワークである。
オフセット同変ネットワークの設計と実装のためのフレームワークを提案する。
実験の結果,オフセット同変ネットワークの性能は,通常のデータ上での最先端のネットワークの性能に匹敵することがわかった。
論文 参考訳(メタデータ) (2022-07-01T09:38:19Z) - Equivariance versus Augmentation for Spherical Images [0.7388859384645262]
球面画像に適用した畳み込みニューラルネットワーク(CNN)における回転同値の役割を解析する。
我々は、S2CNNとして知られるグループ同変ネットワークと、データ増大量で訓練された標準非同変CNNの性能を比較した。
論文 参考訳(メタデータ) (2022-02-08T16:49:30Z) - Revisiting Transformation Invariant Geometric Deep Learning: Are Initial
Representations All You Need? [80.86819657126041]
変換不変および距離保存初期表現は変換不変性を達成するのに十分であることを示す。
具体的には、多次元スケーリングを変更することで、変換不変かつ距離保存された初期点表現を実現する。
我々は、TinvNNが変換不変性を厳密に保証し、既存のニューラルネットワークと組み合わせられるほど汎用的で柔軟なことを証明した。
論文 参考訳(メタデータ) (2021-12-23T03:52:33Z) - Quantised Transforming Auto-Encoders: Achieving Equivariance to
Arbitrary Transformations in Deep Networks [23.673155102696338]
畳み込みニューラルネットワーク(CNN)は画像翻訳と等価である。
埋め込みは任意の等式関係を同時に従うオートエンコーダアーキテクチャを提案する。
いくつかのデータセット上で入力画像の変換版の再レンダリングに成功した結果を示す。
論文 参考訳(メタデータ) (2021-11-25T02:26:38Z) - Topographic VAEs learn Equivariant Capsules [84.33745072274942]
本稿では, 地理的に整理された潜伏変数を用いた深部生成モデルを効率的に学習するための新しい手法であるTopographic VAEを紹介する。
このようなモデルでは,MNIST上での桁数クラス,幅,スタイルなどの健全な特徴に応じて,その活性化を組織化することが実際に学べることが示される。
我々は、既存の群同変ニューラルネットワークの能力を拡張して、複素変換に近似した同値性を示す。
論文 参考訳(メタデータ) (2021-09-03T09:25:57Z) - Equivariance-bridged SO(2)-Invariant Representation Learning using Graph
Convolutional Network [0.1657441317977376]
回転に対して堅牢な畳み込みニューラルネットワーク(CNN)のトレーニングは、主にデータ拡張で行われている。
本稿では,ネットワークの構造的回転不変性を実現することにより,データ拡張への依存の軽減を図っている。
本手法は,回転MNISTおよびCIFAR-10画像の最先端画像分類性能を実現する。
論文 参考訳(メタデータ) (2021-06-18T08:37:45Z) - Generalizing Convolutional Neural Networks for Equivariance to Lie
Groups on Arbitrary Continuous Data [52.78581260260455]
任意の特定のリー群からの変換に同値な畳み込み層を構築するための一般的な方法を提案する。
同じモデルアーキテクチャを画像、ボール・アンド・スティック分子データ、ハミルトン力学系に適用する。
論文 参考訳(メタデータ) (2020-02-25T17:40:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。