論文の概要: Signature features with the visibility transformation
- arxiv url: http://arxiv.org/abs/2004.04006v4
- Date: Thu, 8 Oct 2020 23:26:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-15 08:27:58.412860
- Title: Signature features with the visibility transformation
- Title(参考訳): 可視性変換による信号特徴
- Authors: Yue Wu, Hao Ni, Terence J. Lyons, and Robin L. Hudson
- Abstract要約: 可視性変換は、データストリームの絶対位置の影響を、統一的で効率的な方法で署名機能に埋め込むことができることを示す。
生成した特徴集合は、絶対値と相対値の非線形関数を許容するシグネチャ特徴集合を許容する簡単な役割のために、特にパターン認識タスクにおいて有用である。
- 参考スコア(独自算出の注目度): 4.585017708467473
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper we put the visibility transformation on a clear theoretical
footing and show that this transform is able to embed the effect of the
absolute position of the data stream into signature features in a unified and
efficient way. The generated feature set is particularly useful in pattern
recognition tasks, for its simplifying role in allowing the signature feature
set to accommodate nonlinear functions of absolute and relative values.
- Abstract(参考訳): 本稿では,可視性変換を明快な理論的基盤に配置し,この変換がデータストリームの絶対位置の影響を統一的かつ効率的なシグネチャ機能に組み込むことができることを示す。
生成した特徴集合はパターン認識タスクにおいて特に有用であり、絶対値と相対値の非線形関数にシグネチャ特徴集合を対応させることが容易である。
関連論文リスト
- PseudoNeg-MAE: Self-Supervised Point Cloud Learning using Conditional Pseudo-Negative Embeddings [55.55445978692678]
PseudoNeg-MAEは,ポイントマスク自動エンコーダのグローバルな特徴表現を強化する,自己教師型学習フレームワークである。
PseudoNeg-MAE は ModelNet40 と ScanObjectNN のデータセット上で最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2024-09-24T07:57:21Z) - Fairness Through Controlled (Un)Awareness in Node Embeddings [4.818571559544213]
EmphCrossWalkアルゴリズムのパラメトリゼーションがノード埋め込みから機密属性を推測する能力にどのように影響するかを示す。
この機能は、グラフ埋め込みを利用したMLシステムの公正性を改善するための貴重なツールを提供する。
論文 参考訳(メタデータ) (2024-07-29T14:01:26Z) - Selective Domain-Invariant Feature for Generalizable Deepfake Detection [21.671221284842847]
本稿では,コンテンツの特徴やスタイルを融合させることにより,顔の偽造に対する感受性を低下させる新しいフレームワークを提案する。
既存のベンチマークと提案における質的および定量的な結果の両方が、我々のアプローチの有効性を示している。
論文 参考訳(メタデータ) (2024-03-19T13:09:19Z) - UIA-ViT: Unsupervised Inconsistency-Aware Method based on Vision
Transformer for Face Forgery Detection [52.91782218300844]
そこで我々は、UIA-ViTと呼ばれるビジョン変換器に基づく教師なし不整合認識手法を提案する。
自己注意機構により、パッチ埋め込み間の注意マップは自然に一貫性関係を表現し、一貫性表現学習に適した視覚変換器となる。
論文 参考訳(メタデータ) (2022-10-23T15:24:47Z) - TransFA: Transformer-based Representation for Face Attribute Evaluation [87.09529826340304]
我々はtextbfTransFA を用いたtextbfattribute 評価のための新しい textbf Transformer 表現を提案する。
提案するTransFAは,最先端手法と比較して優れた性能を示す。
論文 参考訳(メタデータ) (2022-07-12T10:58:06Z) - The Self-Optimal-Transport Feature Transform [2.804721532913997]
ダウンストリームマッチングや関連するタスクのグループ化を容易にするために、データインスタンスの機能セットをアップグレードする方法を示します。
エントロピー正規化バージョンを最適輸送 (OT) 最適化により近似できる, 特定の min-コスト-max-flow 分数マッチング問題により, トランスダクティブ・トランスフォーメーションが生じる。
経験的に、この変換は、その使用において非常に効果的で柔軟性があり、挿入されるネットワークを一貫して改善している。
論文 参考訳(メタデータ) (2022-04-06T20:00:39Z) - Hybrid Routing Transformer for Zero-Shot Learning [83.64532548391]
本稿ではハイブリッド・ルーティング・トランス (HRT) と呼ばれる新しいトランス・デコーダモデルを提案する。
ボトムアップとトップダウンの動的ルーティング経路の両方で構築されたアクティブアテンションを組み込んで,属性に整合した視覚的特徴を生成する。
HRTデコーダでは,属性対応の視覚特徴,対応する属性セマンティクス,およびクラス属性ベクトル間の相関関係を静的なルーティングで計算し,最終クラスラベルの予測を生成する。
論文 参考訳(メタデータ) (2022-03-29T07:55:08Z) - Stochastic Layers in Vision Transformers [85.38733795180497]
視覚変換器の完全な層を導入し,性能を著しく低下させることなく実現した。
この追加により、視覚機能の堅牢性が向上し、プライバシーが強化される。
私たちの機能は3つの異なるアプリケーション、すなわち、敵の堅牢性、ネットワークキャリブレーション、機能プライバシに使用しています。
論文 参考訳(メタデータ) (2021-12-30T16:07:59Z) - Self-Supervised Domain Adaptation with Consistency Training [0.2462953128215087]
画像分類における教師なし領域適応の問題点を考察する。
ラベルのないデータをある種の変換で拡張することにより、自己教師付きプレテキストタスクを作成する。
我々は、拡張データの表現を元のデータと整合するように強制する。
論文 参考訳(メタデータ) (2020-10-15T06:03:47Z) - Invariant Feature Coding using Tensor Product Representation [75.62232699377877]
我々は,群不変特徴ベクトルが線形分類器を学習する際に十分な識別情報を含んでいることを証明した。
主成分分析やk平均クラスタリングにおいて,グループアクションを明示的に考慮する新たな特徴モデルを提案する。
論文 参考訳(メタデータ) (2019-06-05T07:15:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。