論文の概要: General Transform: A Unified Framework for Adaptive Transform to Enhance Representations
- arxiv url: http://arxiv.org/abs/2505.04969v1
- Date: Thu, 08 May 2025 06:01:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-09 21:43:49.766854
- Title: General Transform: A Unified Framework for Adaptive Transform to Enhance Representations
- Title(参考訳): General Transform: 適応変換による表現のエンハンスのための統一フレームワーク
- Authors: Gekko Budiutama, Shunsuke Daimon, Hirofumi Nishi, Yu-ichiro Matsushita,
- Abstract要約: General Transform (GT) は、機械学習アプリケーション用に設計された適応型変換ベースの表現である。
GTは、データセットと関心のタスクに合わせて、データ駆動マッピングを学ぶ。
GTを組み込んだモデルは、コンピュータビジョンや自然言語処理タスクにまたがる従来の変換ベースのアプローチより優れている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Discrete transforms, such as the discrete Fourier transform, are widely used in machine learning to improve model performance by extracting meaningful features. However, with numerous transforms available, selecting an appropriate one often depends on understanding the dataset's properties, making the approach less effective when such knowledge is unavailable. In this work, we propose General Transform (GT), an adaptive transform-based representation designed for machine learning applications. Unlike conventional transforms, GT learns data-driven mapping tailored to the dataset and task of interest. Here, we demonstrate that models incorporating GT outperform conventional transform-based approaches across computer vision and natural language processing tasks, highlighting its effectiveness in diverse learning scenarios.
- Abstract(参考訳): 離散フーリエ変換のような離散変換は、意味のある特徴を抽出することによってモデル性能を向上させるために機械学習で広く用いられている。
しかし、多くの変換が利用可能であるため、適切な変換を選択することはデータセットのプロパティを理解することに依存することが多く、そのような知識が利用できない場合のアプローチの効率が低下する。
本稿では,機械学習アプリケーション用に設計された適応型変換ベース表現であるGeneral Transform (GT)を提案する。
従来の変換とは異なり、GTはデータセットや関心のあるタスクに合わせて、データ駆動マッピングを学ぶ。
本稿では、GTを組み込んだモデルが、コンピュータビジョンや自然言語処理タスクにおける従来の変換ベースのアプローチよりも優れており、多様な学習シナリオにおけるその効果が強調されていることを実証する。
関連論文リスト
- Self-supervised Transformation Learning for Equivariant Representations [26.207358743969277]
教師なし表現学習は、様々な機械学習タスクを大幅に進歩させた。
本稿では,変換ラベルを画像ペアから派生した変換表現に置き換える自己教師あり変換学習(STL)を提案する。
さまざまな分類タスクと検出タスクにまたがって、アプローチの有効性を実証し、11のベンチマークのうち7つで既存の手法より優れています。
論文 参考訳(メタデータ) (2025-01-15T10:54:21Z) - Survey: Transformer-based Models in Data Modality Conversion [0.8136541584281987]
モダリティ・コンバージョン(Modality Conversion)は、人間が知覚情報を統合して解釈する方法を模倣して、ある形態の表現から別の形式へのデータの変換を行う。
本稿では, テキスト, 視覚, 音声の一次モーダル性に適用されたトランスフォーマーモデルについて, アーキテクチャ, 変換手法, 応用について論じる。
論文 参考訳(メタデータ) (2024-08-08T18:39:14Z) - Learning Explicitly Conditioned Sparsifying Transforms [7.335712499936904]
本研究では,データ表現の質と学習した変換の条件数を明確に制御するスペーサー変換モデルを提案する。
我々は,本モデルが最先端技術よりも優れた数値挙動を示すことを示す数値実験を通して確認する。
論文 参考訳(メタデータ) (2024-03-05T18:03:51Z) - ParGAN: Learning Real Parametrizable Transformations [50.51405390150066]
本稿では、画像変換学習のためのサイクル一貫性GANフレームワークの一般化であるParGANを提案する。
提案したジェネレータは、画像と変換のパラメトリゼーションの両方を入力とする。
注釈付きパラメトリゼーションを伴わない不整合画像領域では、このフレームワークはスムーズな生成が可能であり、同時に複数の変換を学習できることを示す。
論文 参考訳(メタデータ) (2022-11-09T16:16:06Z) - Towards Lightweight Transformer via Group-wise Transformation for
Vision-and-Language Tasks [126.33843752332139]
本稿では,LW-Transformerと呼ばれる視覚・言語タスクのための,普遍的で軽量なトランスフォーマーに対するグループワイズ変換を提案する。
LW-Transformerを一組のTransformerベースのネットワークに適用し、3つの視覚・言語タスクと6つのベンチマークデータセットで定量的に測定する。
実験の結果,LW-Transformerは多数のパラメータや計算を節約しながら,視覚・言語タスクのためのトランスフォーマーネットワークと非常に競合する性能を発揮することがわかった。
論文 参考訳(メタデータ) (2022-04-16T11:30:26Z) - A Generic Self-Supervised Framework of Learning Invariant Discriminative
Features [9.614694312155798]
本稿では,制約付き自己ラベル割り当てプロセスに基づく汎用SSLフレームワークを提案する。
提案手法は,AE構造に基づく最先端の表現学習手法よりも優れている。
論文 参考訳(メタデータ) (2022-02-14T18:09:43Z) - Visformer: The Vision-friendly Transformer [105.52122194322592]
我々は視覚に優しいトランスフォーマーから短縮したvisformerという新しいアーキテクチャを提案する。
同じ計算の複雑さにより、VisformerはTransformerベースのモデルとConvolutionベースのモデルの両方をImageNet分類精度で上回る。
論文 参考訳(メタデータ) (2021-04-26T13:13:03Z) - Applying the Transformer to Character-level Transduction [68.91664610425114]
この変換器は、様々な単語レベルのNLPタスクにおいて、繰り返しニューラルネットワークに基づくシーケンス・ツー・シーケンスモデルより優れていることが示されている。
十分なバッチサイズで、トランスフォーマーは文字レベルタスクの繰り返しモデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2020-05-20T17:25:43Z) - On Compositions of Transformations in Contrastive Self-Supervised
Learning [66.15514035861048]
本稿では,コントラスト学習をより広範な変換集合に一般化する。
特定の変換に不変であり、他の変換に特有であることは、効果的なビデオ表現の学習に不可欠である。
論文 参考訳(メタデータ) (2020-03-09T17:56:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。