論文の概要: Self-Reinforcement Attention Mechanism For Tabular Learning
- arxiv url: http://arxiv.org/abs/2305.11684v1
- Date: Fri, 19 May 2023 14:06:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-22 14:20:48.368237
- Title: Self-Reinforcement Attention Mechanism For Tabular Learning
- Title(参考訳): 単語学習のための自己強化注意機構
- Authors: Kodjo Mawuena Amekoe, Mohamed Djallel Dilmi, Hanene Azzag, Mustapha
Lebbah, Zaineb Chelly Dagdia, Gregoire Jaffre
- Abstract要約: 自己強化注意(Self-Reinforcement Attention, SRA)は、重みベクトルとしての特徴の関連性を提供する新しい注意機構である。
合成および実世界の不均衡データを用いた結果,提案したSRAブロックは,ベースラインモデルとエンドツーエンドの組み合わせに有効であることがわかった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Apart from the high accuracy of machine learning models, what interests many
researchers in real-life problems (e.g., fraud detection, credit scoring) is to
find hidden patterns in data; particularly when dealing with their challenging
imbalanced characteristics. Interpretability is also a key requirement that
needs to accompany the used machine learning model. In this concern, often,
intrinsically interpretable models are preferred to complex ones, which are in
most cases black-box models. Also, linear models are used in some high-risk
fields to handle tabular data, even if performance must be sacrificed. In this
paper, we introduce Self-Reinforcement Attention (SRA), a novel attention
mechanism that provides a relevance of features as a weight vector which is
used to learn an intelligible representation. This weight is then used to
reinforce or reduce some components of the raw input through element-wise
vector multiplication. Our results on synthetic and real-world imbalanced data
show that our proposed SRA block is effective in end-to-end combination with
baseline models.
- Abstract(参考訳): 機械学習モデルの高精度さとは別に、現実の問題(詐欺検出や信用スコアなど)において多くの研究者が興味を持っているのは、データの隠れたパターンを見つけることだ。
解釈性は、使用する機械学習モデルに付随する必要がある重要な要件でもある。
この懸念において、しばしば本質的に解釈可能なモデルは、多くの場合ブラックボックスモデルである複雑なモデルよりも好まれる。
また、線形モデルは、たとえパフォーマンスを犠牲にしなければならないとしても、グラフデータを扱うために高リスクフィールドで使用される。
本稿では,重みベクトルとして特徴の関連性を提供する新しい注意機構である自己強化注意(SRA)を紹介する。
この重みは、要素ワイドベクトル乗算によって生入力のいくつかの成分を補強または還元するために使われる。
合成および実世界の不均衡データを用いた結果,提案したSRAブロックはベースラインモデルとエンドツーエンドの組み合わせに有効であることがわかった。
関連論文リスト
- Exploring Patterns Behind Sports [3.2838877620203935]
本稿では、ARIMAとLSTMを組み合わせたハイブリッドモデルを用いて、時系列予測のための包括的なフレームワークを提案する。
このモデルには埋め込みやPCAといった機能エンジニアリング技術が組み込まれており、生データを低次元の表現に変換する。
論文 参考訳(メタデータ) (2025-02-11T11:51:07Z) - Forget Vectors at Play: Universal Input Perturbations Driving Machine Unlearning in Image Classification [25.721619048573203]
マシン・アンラーニング(MU)は、既に訓練されたモデルから不要な特定のデータの影響を消そうとする。
本研究では,新しい入力ベースの観点からMU問題にアプローチする。
我々は,能動的入力に基づく非学習戦略の存在を実演する。
論文 参考訳(メタデータ) (2024-12-21T21:27:22Z) - Fair Mixed Effects Support Vector Machine [0.0]
機械学習の公正性は、トレーニングデータに存在するバイアスを緩和し、不完全性をモデル化することを目的としている。
これは、モデルが民族性や性的指向といった繊細な特徴に基づいて決定するのを防ぐことで達成される。
両問題を同時に処理できるベクターマシンアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-05-10T12:25:06Z) - Boarding for ISS: Imbalanced Self-Supervised: Discovery of a Scaled Autoencoder for Mixed Tabular Datasets [1.2289361708127877]
不均衡な自己教師付き学習の分野は、広く研究されていない。
既存の研究は主に画像データセットに焦点を当てている。
バランス学習のための新しい指標として,マルチスーパーバイザードバランスMSEを提案する。
論文 参考訳(メタデータ) (2024-03-23T10:37:22Z) - The Frontier of Data Erasure: Machine Unlearning for Large Language Models [56.26002631481726]
大規模言語モデル(LLM)はAIの進歩の基礎となっている。
LLMは機密情報、偏見情報、著作権情報を記憶し、広めることによってリスクを生じさせる。
機械学習は、これらの懸念を軽減するための最先端のソリューションとして現れます。
論文 参考訳(メタデータ) (2024-03-23T09:26:15Z) - Surprisal Driven $k$-NN for Robust and Interpretable Nonparametric
Learning [1.4293924404819704]
我々は情報理論の観点から、隣り合う従来のアルゴリズムに新たな光を当てた。
単一モデルを用いた分類,回帰,密度推定,異常検出などのタスクに対する頑健で解釈可能なフレームワークを提案する。
我々の研究は、分類と異常検出における最先端の成果を達成することによって、アーキテクチャの汎用性を示す。
論文 参考訳(メタデータ) (2023-11-17T00:35:38Z) - Efficient Deep Clustering of Human Activities and How to Improve
Evaluation [53.08810276824894]
我々は,ヒト活動の再コーグ・ニオン(HAR)のための新しい深層クラスタリングモデルを提案する。
本稿では,HARクラスタリングモデルがどのように評価されるかという,いくつかの異なる問題を取り上げる。
次に、これらの問題に対する解決策について議論し、将来の深層HARクラスタリングモデルに対する標準評価設定を提案する。
論文 参考訳(メタデータ) (2022-09-17T14:12:42Z) - Advancing Reacting Flow Simulations with Data-Driven Models [50.9598607067535]
マルチ物理問題における機械学習ツールの効果的な利用の鍵は、それらを物理モデルとコンピュータモデルに結合することである。
本章では, 燃焼システムにおけるデータ駆動型低次モデリングの適用可能性について概説する。
論文 参考訳(メタデータ) (2022-09-05T16:48:34Z) - CMW-Net: Learning a Class-Aware Sample Weighting Mapping for Robust Deep
Learning [55.733193075728096]
現代のディープニューラルネットワークは、破損したラベルやクラス不均衡を含むバイアス付きトレーニングデータに容易に適合する。
サンプル再重み付け手法は、このデータバイアス問題を緩和するために一般的に使用されている。
本稿では,データから直接明示的な重み付け方式を適応的に学習できるメタモデルを提案する。
論文 参考訳(メタデータ) (2022-02-11T13:49:51Z) - ALT-MAS: A Data-Efficient Framework for Active Testing of Machine
Learning Algorithms [58.684954492439424]
少量のラベル付きテストデータのみを用いて機械学習モデルを効率的にテストする新しいフレームワークを提案する。
ベイズニューラルネットワーク(bnn)を用いたモデルアンダーテストの関心指標の推定が目的である。
論文 参考訳(メタデータ) (2021-04-11T12:14:04Z) - SparseBERT: Rethinking the Importance Analysis in Self-attention [107.68072039537311]
トランスフォーマーベースのモデルは、その強力な能力のために自然言語処理(NLP)タスクに人気がある。
事前学習モデルの注意マップの可視化は,自己着脱機構を理解するための直接的な方法の一つである。
本研究では,sparsebert設計の指導にも適用可能な微分可能アテンションマスク(dam)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-02-25T14:13:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。