論文の概要: Regressing Relative Fine-Grained Change for Sub-Groups in Unreliable
Heterogeneous Data Through Deep Multi-Task Metric Learning
- arxiv url: http://arxiv.org/abs/2208.05800v1
- Date: Thu, 11 Aug 2022 12:57:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-12 12:55:11.030494
- Title: Regressing Relative Fine-Grained Change for Sub-Groups in Unreliable
Heterogeneous Data Through Deep Multi-Task Metric Learning
- Title(参考訳): ディープマルチタスクメトリック学習による不信頼不均一データにおける部分群に対する相対的細粒度変化の回帰
- Authors: Niall O' Mahony, Sean Campbell, Lenka Krpalkova, Joseph Walsh, Daniel
Riordan
- Abstract要約: 本研究では,マルチタスク・メトリック・ラーニングの手法を実データにおけるきめ細かい変化に応用する方法について検討する。
この手法は異種データソースの処理に特化している。
- 参考スコア(独自算出の注目度): 0.5999777817331317
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Fine-Grained Change Detection and Regression Analysis are essential in many
applications of ArtificialIntelligence. In practice, this task is often
challenging owing to the lack of reliable ground truth information
andcomplexity arising from interactions between the many underlying factors
affecting a system. Therefore,developing a framework which can represent the
relatedness and reliability of multiple sources of informationbecomes critical.
In this paper, we investigate how techniques in multi-task metric learning can
be applied for theregression of fine-grained change in real data.The key idea
is that if we incorporate the incremental change in a metric of interest
between specific instancesof an individual object as one of the tasks in a
multi-task metric learning framework, then interpreting thatdimension will
allow the user to be alerted to fine-grained change invariant to what the
overall metric isgeneralised to be. The techniques investigated are
specifically tailored for handling heterogeneous data sources,i.e. the input
data for each of the tasks might contain missing values, the scale and
resolution of the values is notconsistent across tasks and the data contains
non-independent and identically distributed (non-IID) instances. Wepresent the
results of our initial experimental implementations of this idea and discuss
related research in thisdomain which may offer direction for further research.
- Abstract(参考訳): 人工知能の多くの応用において、微粒化変化検出および回帰分析が不可欠である。
実際、この課題は、システムに影響を与える多くの基礎要因間の相互作用から生じる信頼性の高い真実情報と複雑さの欠如のため、しばしば困難である。
したがって、複数の情報源の関連性と信頼性を表現できるフレームワークの開発が重要となる。
本稿では,マルチタスク・メトリック・ラーニングの手法を実データにおけるきめ細かい変化に応用する方法を検討するとともに,個々のオブジェクトの特定のインスタンス間の関心度を,マルチタスク・メトリック・ラーニング・フレームワークのタスクの1つとしてインクリメンタルな変更を組み込んだ場合,そのダイアメンションを解釈することで,全体のメトリックが一般化されるものに対して,きめ細かい変化を警告することができる。
調査された手法は、不均一なデータソース、すなわち各タスクの入力データには欠落した値が含まれ、その値のスケールと解決はタスク間で一貫性がなく、データは非独立かつ同一の分散(非iid)インスタンスを含む。
我々は、このアイデアの最初の実験的な実装の結果を提示し、さらなる研究の方向性を示すであろうこの領域の関連研究について論じる。
関連論文リスト
- A Multitask Deep Learning Model for Classification and Regression of Hyperspectral Images: Application to the large-scale dataset [44.94304541427113]
ハイパースペクトル画像上で複数の分類タスクと回帰タスクを同時に行うマルチタスク深層学習モデルを提案する。
我々は、TAIGAと呼ばれる大規模なハイパースペクトルデータセットに対するアプローチを検証した。
結果の総合的定性的および定量的分析により,提案手法が他の最先端手法よりも有意に優れていることを示す。
論文 参考訳(メタデータ) (2024-07-23T11:14:54Z) - Distribution Matching for Multi-Task Learning of Classification Tasks: a
Large-Scale Study on Faces & Beyond [62.406687088097605]
マルチタスク学習(MTL)は、複数の関連するタスクを共同で学習し、共有表現空間から恩恵を受けるフレームワークである。
MTLは、ほとんど重複しない、あるいは重複しないアノテーションで分類タスクで成功することを示す。
本稿では,分散マッチングによるタスク間の知識交換を可能にする新しい手法を提案する。
論文 参考訳(メタデータ) (2024-01-02T14:18:11Z) - Leveraging sparse and shared feature activations for disentangled
representation learning [112.22699167017471]
本稿では,教師付きタスクの多種多様な集合から抽出した知識を活用し,共通不整合表現を学習することを提案する。
我々は6つの実世界分布シフトベンチマークと異なるデータモダリティに対するアプローチを検証する。
論文 参考訳(メタデータ) (2023-04-17T01:33:24Z) - Multi-task Bias-Variance Trade-off Through Functional Constraints [102.64082402388192]
マルチタスク学習は、多様なタスクによく機能する関数の集合を取得することを目的としている。
本稿では,2つの極端な学習シナリオ,すなわちすべてのタスクに対する単一関数と,他のタスクを無視するタスク固有関数から直感を抽出する。
本稿では,集中関数に対するドメイン固有解を強制する制約付き学習定式化を導入する。
論文 参考訳(メタデータ) (2022-10-27T16:06:47Z) - Exploring the Trade-off between Plausibility, Change Intensity and
Adversarial Power in Counterfactual Explanations using Multi-objective
Optimization [73.89239820192894]
自動対物生成は、生成した対物インスタンスのいくつかの側面を考慮すべきである。
本稿では, 対実例生成のための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2022-05-20T15:02:53Z) - Equivariance Allows Handling Multiple Nuisance Variables When Analyzing
Pooled Neuroimaging Datasets [53.34152466646884]
本稿では,構造空間上でインスタンス化された同変表現学習における最近の結果と,因果推論における古典的結果の簡易な利用が,いかに効果的に実現されたかを示す。
いくつかの仮定の下で、我々のモデルが複数のニュアンス変数を扱えることを実証し、そうでなければサンプルの大部分を取り除く必要のあるシナリオにおいて、プールされた科学データセットの分析を可能にする。
論文 参考訳(メタデータ) (2022-03-29T04:54:06Z) - Multi-task Supervised Learning via Cross-learning [102.64082402388192]
我々は,様々なタスクを解くことを目的とした回帰関数の集合を適合させることで,マルチタスク学習と呼ばれる問題を考える。
我々の新しい定式化では、これらの関数のパラメータを2つに分けて、互いに近づきながらタスク固有のドメインで学習する。
これにより、異なるドメインにまたがって収集されたデータが、互いのタスクにおける学習パフォーマンスを改善するのに役立つ、クロス・ファーティライズが促進される。
論文 参考訳(メタデータ) (2020-10-24T21:35:57Z) - Understanding and Exploiting Dependent Variables with Deep Metric
Learning [0.5025737475817937]
Deep Metric Learning (DML)アプローチは、低次元の潜在空間への入力を表現するために学習する。
本稿では,任意の分類問題における有意な特徴が時間とともに変化する状況において,DMLのマッピング要素をどのように活用するかを検討する。
論文 参考訳(メタデータ) (2020-09-08T15:30:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。