論文の概要: FastFT: Accelerating Reinforced Feature Transformation via Advanced Exploration Strategies
- arxiv url: http://arxiv.org/abs/2503.20394v1
- Date: Wed, 26 Mar 2025 10:17:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-27 13:21:46.226039
- Title: FastFT: Accelerating Reinforced Feature Transformation via Advanced Exploration Strategies
- Title(参考訳): FastFT: 先進的な探索戦略による強化された特徴変換の高速化
- Authors: Tianqi He, Xiaohan Huang, Yi Du, Qingqing Long, Ziyue Qiao, Min Wu, Yanjie Fu, Yuanchun Zhou, Meng Xiao,
- Abstract要約: 先進的な戦略の3つを活用する革新的なフレームワークであるFastFTを紹介します。
生成した変換シーケンスの新規性を評価する手法を開発した。
また、新規性とパフォーマンスを組み合わせて、優先順位付けされたメモリバッファを作成します。
- 参考スコア(独自算出の注目度): 26.50070102629617
- License:
- Abstract: Feature Transformation is crucial for classic machine learning that aims to generate feature combinations to enhance the performance of downstream tasks from a data-centric perspective. Current methodologies, such as manual expert-driven processes, iterative-feedback techniques, and exploration-generative tactics, have shown promise in automating such data engineering workflow by minimizing human involvement. However, three challenges remain in those frameworks: (1) It predominantly depends on downstream task performance metrics, as assessment is time-consuming, especially for large datasets. (2) The diversity of feature combinations will hardly be guaranteed after random exploration ends. (3) Rare significant transformations lead to sparse valuable feedback that hinders the learning processes or leads to less effective results. In response to these challenges, we introduce FastFT, an innovative framework that leverages a trio of advanced strategies.We first decouple the feature transformation evaluation from the outcomes of the generated datasets via the performance predictor. To address the issue of reward sparsity, we developed a method to evaluate the novelty of generated transformation sequences. Incorporating this novelty into the reward function accelerates the model's exploration of effective transformations, thereby improving the search productivity. Additionally, we combine novelty and performance to create a prioritized memory buffer, ensuring that essential experiences are effectively revisited during exploration. Our extensive experimental evaluations validate the performance, efficiency, and traceability of our proposed framework, showcasing its superiority in handling complex feature transformation tasks.
- Abstract(参考訳): 特徴変換は、データ中心の観点から下流タスクのパフォーマンスを高めるために機能の組み合わせを生成することを目的とした、古典的な機械学習にとって不可欠である。
手動のエキスパート駆動プロセス、反復フィードバック技術、探索・生成戦術といった現在の手法は、人間の関与を最小限に抑えて、そのようなデータエンジニアリングワークフローを自動化することを約束している。
1) ダウンストリームのタスクパフォーマンス指標に大きく依存する。特に大規模なデータセットでは,アセスメントに時間がかかります。
2) ランダム探索終了後,特徴の組み合わせの多様性は保証されない。
(3)大きな変化は、学習プロセスを妨げる、あるいは効果の低い結果をもたらす、希少な価値フィードバックにつながります。
これらの課題に対応するために、我々は、先進戦略の3つのトリオを活用する革新的なフレームワークであるFastFTを導入し、まず、性能予測器を介して生成されたデータセットの結果から特徴変換評価を分離する。
報酬空間の問題に対処するため,生成した変換シーケンスの新規性を評価する手法を開発した。
この新規性を報酬関数に組み込むことで、モデルによる効果的な変換の探索が加速され、探索生産性が向上する。
さらに、新規性と性能を組み合わせて優先順位付けされたメモリバッファを作成し、探索中に本質的な体験が効果的に再考されることを保証する。
提案するフレームワークの性能, 効率, トレーサビリティを検証し, 複雑な特徴変換タスクの処理におけるその優位性を示す。
関連論文リスト
- Enhancing Tabular Data Optimization with a Flexible Graph-based Reinforced Exploration Strategy [16.782884097690882]
自動機能変換の現在のフレームワークは、反復的なシーケンス生成タスクに依存している。
3つのカスケーディングエージェントが繰り返しノードを選択し、新しい変換状態を生成する数学的操作を考えます。
この戦略はグラフ構造の性質を活用し、価値ある変換の保存と再利用を可能にする。
論文 参考訳(メタデータ) (2024-06-11T16:10:37Z) - Deep Common Feature Mining for Efficient Video Semantic Segmentation [25.851900402539467]
ビデオセマンティックセグメンテーションのためのDeep Common Feature Mining(DCFM)を提案する。
DCFMは、機能を2つの補完的なコンポーネントに明示的に分解する。
自己教師付き損失関数を組み込んで,クラス内特徴の類似性を強化し,時間的整合性を高める。
論文 参考訳(メタデータ) (2024-03-05T06:17:59Z) - Leveraging the Power of Data Augmentation for Transformer-based Tracking [64.46371987827312]
トラッキング用にカスタマイズされた2つのデータ拡張手法を提案する。
まず、動的探索半径機構と境界サンプルのシミュレーションにより、既存のランダムトリミングを最適化する。
第2に,背景干渉などの問題に対するモデルを可能にする,トークンレベルの機能混在強化戦略を提案する。
論文 参考訳(メタデータ) (2023-09-15T09:18:54Z) - Feature Decoupling-Recycling Network for Fast Interactive Segmentation [79.22497777645806]
近年のインタラクティブセグメンテーション手法では,入力としてソースイメージ,ユーザガイダンス,従来予測されていたマスクを反復的に取り込んでいる。
本稿では,本質的な相違点に基づいてモデリングコンポーネントを分離するFDRN(Feature Decoupling-Recycling Network)を提案する。
論文 参考訳(メタデータ) (2023-08-07T12:26:34Z) - Traceable Group-Wise Self-Optimizing Feature Transformation Learning: A
Dual Optimization Perspective [33.45878576396101]
特徴変換は、既存の特徴を数学的に洗練することにより、効果的な表現空間を再構築することを目的としている。
既存の研究は主にドメイン知識に基づく特徴工学や学習潜在表現に重点を置いている。
最初の作業は、新しい自己最適化フレームワークを導入することで、この課題への先駆的な一歩を踏み出したのです。
論文 参考訳(メタデータ) (2023-06-29T12:29:21Z) - End-to-End Meta-Bayesian Optimisation with Transformer Neural Processes [52.818579746354665]
本稿では,ニューラルネットワークを一般化し,トランスフォーマーアーキテクチャを用いて獲得関数を学習する,エンド・ツー・エンドの差別化可能な最初のメタBOフレームワークを提案する。
我々は、この強化学習(RL)によるエンドツーエンドのフレームワークを、ラベル付き取得データの欠如に対処できるようにします。
論文 参考訳(メタデータ) (2023-05-25T10:58:46Z) - Multi-dataset Training of Transformers for Robust Action Recognition [75.5695991766902]
動作認識のための複数のデータセットをうまく一般化することを目的として,ロバストな特徴表現の課題について検討する。
本稿では、情報損失と投影損失という2つの新しい損失項を設計した、新しいマルチデータセットトレーニングパラダイムであるMultiTrainを提案する。
本研究では,Kineetics-400,Kineetics-700,Moments-in-Time,Activitynet,Some-something-v2の5つの課題データセットに対して,本手法の有効性を検証する。
論文 参考訳(メタデータ) (2022-09-26T01:30:43Z) - Self-Optimizing Feature Transformation [33.458785763961004]
特徴変換は、既存の特徴を数学的に変換することで、優れた表現(特徴)空間を抽出することを目的としている。
現在の研究は、ドメイン知識に基づく特徴工学や学習潜在表現に焦点を当てている。
特徴変換のための自己最適化フレームワークを提案する。
論文 参考訳(メタデータ) (2022-09-16T16:50:41Z) - Synthetic Convolutional Features for Improved Semantic Segmentation [139.5772851285601]
本稿では、中間畳み込み特徴を生成することを提案し、そのような中間畳み込み特徴に対応する最初の合成手法を提案する。
これにより、ラベルマスクから新機能を生成し、トレーニング手順にうまく組み込むことができます。
Cityscapes と ADE20K の2つの挑戦的なデータセットに関する実験結果と分析により,生成した特徴がセグメンテーションタスクのパフォーマンスを向上させることが示された。
論文 参考訳(メタデータ) (2020-09-18T14:12:50Z) - Task-Feature Collaborative Learning with Application to Personalized
Attribute Prediction [166.87111665908333]
本稿では,TFCL(Task-Feature Collaborative Learning)と呼ばれる新しいマルチタスク学習手法を提案する。
具体的には、まず、特徴とタスクの協調的なグループ化を活用するために、不均一なブロック対角構造正規化器を用いたベースモデルを提案する。
実際の拡張として,重なり合う機能と難易度を区別することで,基本モデルを拡張します。
論文 参考訳(メタデータ) (2020-04-29T02:32:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。