論文の概要: Traceable Automatic Feature Transformation via Cascading Actor-Critic
Agents
- arxiv url: http://arxiv.org/abs/2212.13402v1
- Date: Tue, 27 Dec 2022 08:20:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-29 14:34:51.951807
- Title: Traceable Automatic Feature Transformation via Cascading Actor-Critic
Agents
- Title(参考訳): Cascading Actor-Critic Agentによるトレーサブル自動特徴変換
- Authors: Meng Xiao, Dongjie Wang, Min Wu, Ziyue Qiao, Pengfei Wang, Kunpeng
Liu, Yuanchun Zhou, Yanjie Fu
- Abstract要約: 特徴変換は機械学習(ML)の有効性と解釈可能性を高めるための必須課題である
特徴変換タスクを、特徴生成と選択の反復的、ネストされたプロセスとして定式化する。
高次元データにおけるSOTAとロバスト性と比較すると,F1スコアの24.7%の改善が見られた。
- 参考スコア(独自算出の注目度): 25.139229855367088
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Feature transformation for AI is an essential task to boost the effectiveness
and interpretability of machine learning (ML). Feature transformation aims to
transform original data to identify an optimal feature space that enhances the
performances of a downstream ML model. Existing studies either combines
preprocessing, feature selection, and generation skills to empirically
transform data, or automate feature transformation by machine intelligence,
such as reinforcement learning. However, existing studies suffer from: 1)
high-dimensional non-discriminative feature space; 2) inability to represent
complex situational states; 3) inefficiency in integrating local and global
feature information. To fill the research gap, we formulate the feature
transformation task as an iterative, nested process of feature generation and
selection, where feature generation is to generate and add new features based
on original features, and feature selection is to remove redundant features to
control the size of feature space. Finally, we present extensive experiments
and case studies to illustrate 24.7\% improvements in F1 scores compared with
SOTAs and robustness in high-dimensional data.
- Abstract(参考訳): AIの機能変換は、機械学習(ML)の有効性と解釈可能性を高めるために不可欠である。
特徴変換は、下流MLモデルの性能を高める最適な特徴空間を特定するために、オリジナルデータを変換することを目的としている。
既存の研究は、前処理、特徴選択、生成スキルを組み合わせてデータを経験的に変換するか、強化学習のような機械知性による特徴変換を自動化する。
しかし、既存の研究は下記のとおりである。
1) 高次元非判別的特徴空間
2) 複雑な状況を表すことができないこと
3)地域的・グローバル的特徴情報の統合の非効率性。
研究ギャップを埋めるために、特徴変換タスクを、特徴生成と選択の反復的、ネストされたプロセスとして定式化し、特徴生成は元の特徴に基づいて新機能を生成し、追加し、特徴選択は余分な特徴を取り除き、特徴空間のサイズを制御する。
最後に、高次元データにおけるSOTAとロバスト性と比較して、F1スコアの24.7%改善を示す広範な実験とケーススタディを示す。
関連論文リスト
- Enhancing Feature Selection and Interpretability in AI Regression Tasks Through Feature Attribution [38.53065398127086]
本研究では、回帰問題に対する入力データの非形式的特徴をフィルタリングする特徴属性法の可能性について検討する。
我々は、初期データ空間から最適な変数セットを選択するために、統合グラディエントとk平均クラスタリングを組み合わせた機能選択パイプラインを導入する。
提案手法の有効性を検証するため, ターボ機械の開発過程における羽根振動解析を実世界の産業問題に適用した。
論文 参考訳(メタデータ) (2024-09-25T09:50:51Z) - Unsupervised Generative Feature Transformation via Graph Contrastive Pre-training and Multi-objective Fine-tuning [28.673952870674146]
教師なし特徴変換学習のための測定-事前訓練-ファネチューンパラダイムを開発した。
教師なし特徴集合の実用性測定のために,特徴値の整合性維持の観点から提案する。
生成的変換ファインタニングでは,特徴集合を特徴クロスシーケンス,特徴変換を逐次生成とみなす。
論文 参考訳(メタデータ) (2024-05-27T06:50:00Z) - Feature Selection as Deep Sequential Generative Learning [50.00973409680637]
本研究では, 逐次再構成, 変分, 性能評価器の損失を伴って, 深部変分変圧器モデルを構築した。
提案モデルでは,特徴選択の知識を抽出し,連続的な埋め込み空間を学習し,特徴選択決定シーケンスをユーティリティスコアに関連付けられた埋め込みベクトルにマッピングする。
論文 参考訳(メタデータ) (2024-03-06T16:31:56Z) - Feature Interaction Aware Automated Data Representation Transformation [27.26916497306978]
我々は,マルコフ決定過程をカスケードした階層的強化学習構造を開発し,特徴選択と操作選択を自動化する。
我々は、選択された特徴間の相互作用強度に基づいてエージェントに報酬を与える。その結果、人間の意思決定をエミュレートする特徴空間をインテリジェントかつ効率的に探索する。
論文 参考訳(メタデータ) (2023-09-29T06:48:16Z) - Part-guided Relational Transformers for Fine-grained Visual Recognition [59.20531172172135]
識別的特徴を学習し,特徴変換モジュールとの相関関係を探索するフレームワークを提案する。
提案手法は,3-of-the-levelオブジェクト認識において,部分ブランチの追加に頼らず,最先端の性能に達する。
論文 参考訳(メタデータ) (2022-12-28T03:45:56Z) - Self-Optimizing Feature Transformation [33.458785763961004]
特徴変換は、既存の特徴を数学的に変換することで、優れた表現(特徴)空間を抽出することを目的としている。
現在の研究は、ドメイン知識に基づく特徴工学や学習潜在表現に焦点を当てている。
特徴変換のための自己最適化フレームワークを提案する。
論文 参考訳(メタデータ) (2022-09-16T16:50:41Z) - Joint Spatial-Temporal and Appearance Modeling with Transformer for
Multiple Object Tracking [59.79252390626194]
本稿ではTransSTAMという新しい手法を提案する。Transformerを利用して各オブジェクトの外観特徴とオブジェクト間の空間的時間的関係の両方をモデル化する。
提案手法はMOT16, MOT17, MOT20を含む複数の公開ベンチマークで評価され, IDF1とHOTAの両方で明確な性能向上を実現している。
論文 参考訳(メタデータ) (2022-05-31T01:19:18Z) - Hybrid Routing Transformer for Zero-Shot Learning [83.64532548391]
本稿ではハイブリッド・ルーティング・トランス (HRT) と呼ばれる新しいトランス・デコーダモデルを提案する。
ボトムアップとトップダウンの動的ルーティング経路の両方で構築されたアクティブアテンションを組み込んで,属性に整合した視覚的特徴を生成する。
HRTデコーダでは,属性対応の視覚特徴,対応する属性セマンティクス,およびクラス属性ベクトル間の相関関係を静的なルーティングで計算し,最終クラスラベルの予測を生成する。
論文 参考訳(メタデータ) (2022-03-29T07:55:08Z) - The Devil is in the Task: Exploiting Reciprocal Appearance-Localization
Features for Monocular 3D Object Detection [62.1185839286255]
低コストのモノクル3D物体検出は、自律運転において基本的な役割を果たす。
DFR-Netという動的特徴反射ネットワークを導入する。
我々は、KITTIテストセットの全ての単分子3D物体検出器の中で、第1位にランク付けする。
論文 参考訳(メタデータ) (2021-12-28T07:31:18Z) - Evolving Metric Learning for Incremental and Decremental Features [45.696514400861275]
インクリメンタルおよびデクリメンタル機能のための新しいオンラインEvolving Metric Learningモデルを開発した。
我々のモデルはスムーズなワッサーシュタイン距離を組み込むことで、インスタンスと特徴の進化を同時に扱うことができる。
ワンショットケースでの課題に対処するだけでなく、モデルをマルチショットシナリオに拡張します。
論文 参考訳(メタデータ) (2020-06-27T10:29:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。