論文の概要: Multi-Order Networks for Action Unit Detection
- arxiv url: http://arxiv.org/abs/2202.00446v1
- Date: Tue, 1 Feb 2022 14:58:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-02 16:53:33.953807
- Title: Multi-Order Networks for Action Unit Detection
- Title(参考訳): 動作単位検出のためのマルチオーダーネットワーク
- Authors: Gauthier Tallec, Arnaud Dapogny and Kevin Bailly
- Abstract要約: Multi-Order Network (MONET) は,タスク順序を最適化したマルチタスク学習手法である。
我々はMONETが顔行動単位検出における最先端性能を著しく拡張していることを示す。
- 参考スコア(独自算出の注目度): 7.971065005161565
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep multi-task methods, where several tasks are learned within a single
network, have recently attracted increasing attention. Burning point of this
attention is their capacity to capture inter-task relationships. Current
approaches either only rely on weight sharing, or add explicit dependency
modelling by decomposing the task joint distribution using Bayes chain rule. If
the latter strategy yields comprehensive inter-task relationships modelling, it
requires imposing an arbitrary order into an unordered task set. Most
importantly, this sequence ordering choice has been identified as a critical
source of performance variations. In this paper, we present Multi-Order Network
(MONET), a multi-task learning method with joint task order optimization. MONET
uses a differentiable order selection based on soft order modelling inside
Birkhoff's polytope to jointly learn task-wise recurrent modules with their
optimal chaining order. Furthermore, we introduce warm up and order dropout to
enhance order selection by encouraging order exploration. Experimentally, we
first validate MONET capacity to retrieve the optimal order in a toy
environment. Second, we use an attribute detection scenario to show that MONET
outperforms existing multi-task baselines on a wide range of dependency
settings. Finally, we demonstrate that MONET significantly extends
state-of-the-art performance in Facial Action Unit detection.
- Abstract(参考訳): ひとつのネットワーク内で複数のタスクが学習されるディープマルチタスク手法が近年注目されている。
この注意の燃える点は、タスク間の関係を捉える能力です。
現在のアプローチでは、ウェイトシェアリングのみに依存するか、ベイズ連鎖則を用いてタスクジョイント分布を分解することで明示的な依存性モデリングを追加する。
後者の戦略が包括的なタスク間関係をモデル化するならば、任意の順序を未順序のタスクセットに含める必要がある。
最も重要なことは、このシーケンスオーダ選択がパフォーマンスの変動の重要な原因として特定されていることである。
本稿では,タスク順序を最適化したマルチタスク学習手法であるMulti-Order Network(MONET)を提案する。
MONETは、Birkhoffのポリトープ内のソフトオーダーモデリングに基づいて、最適な連鎖順序でタスクワイズリカレントモジュールを共同で学習するために、微分可能な順序選択を使用する。
さらに,秩序探索を奨励し,秩序選択を高めるために暖かみと秩序の低下を導入する。
実験では,まずMONETのキャパシティを検証し,玩具環境での最適順序を求める。
次に、属性検出シナリオを使用して、MONETが既存のマルチタスクベースラインを広範囲の依存性設定で上回ることを示す。
最後に,MONET が顔行動単位検出における最先端性能を著しく拡張することを示す。
関連論文リスト
- SEMINAR: Search Enhanced Multi-modal Interest Network and Approximate Retrieval for Lifelong Sequential Recommendation [16.370075234443245]
本稿では,SEMINAR-Search Enhanced Multi-Modal Interest Network と Approximate Retrieval という,一生涯にわたるマルチモーダルシーケンスモデルを提案する。
具体的には、Pretraining Search Unitと呼ばれるネットワークが、事前トレーニング-ファインタニング方式で、マルチモーダルクエリ-イテムペアの寿命のシーケンスを学習する。
マルチモーダル埋め込みのオンライン検索速度を高速化するために,マルチモーダルなコードブックベースの製品量子化戦略を提案する。
論文 参考訳(メタデータ) (2024-07-15T13:33:30Z) - DMTG: One-Shot Differentiable Multi-Task Grouping [32.72240053032646]
MTG(Multi-Task Grouping)による多タスク学習(Multi-Task Learning, MTL)の実現を目指す。
本稿では,2N候補から最高のタスク群を同時に同定し,高次タスク親和性をフル活用したモデル重みを1ショットで同時に訓練することを提案する。
論文 参考訳(メタデータ) (2024-07-06T13:54:00Z) - Task Indicating Transformer for Task-conditional Dense Predictions [16.92067246179703]
この課題に対処するために,タスク表示変換(TIT)と呼ばれる新しいタスク条件フレームワークを導入する。
本手法では,行列分解によるタスク指示行列を組み込んだMix Task Adapterモジュールをトランスフォーマーブロック内に設計する。
また,タスク表示ベクトルとゲーティング機構を利用するタスクゲートデコーダモジュールを提案する。
論文 参考訳(メタデータ) (2024-03-01T07:06:57Z) - Identification of Negative Transfers in Multitask Learning Using
Surrogate Models [29.882265735630046]
マルチタスク学習は、複数の関連するソースタスクで強化することで、低リソースのターゲットタスクのトレーニングに広く使用されている。
マルチタスク学習における重要な問題は、ターゲットタスクに利益をもたらすソースタスクのサブセットを特定することである。
本稿では,サロゲートモデルを用いてこの問題に対処する効率的な手法を提案する。
論文 参考訳(メタデータ) (2023-03-25T23:16:11Z) - OFASys: A Multi-Modal Multi-Task Learning System for Building Generalist
Models [72.8156832931841]
ジェネリストモデルは、単一のモデル内でタスクに依存しない方法で多様なマルチモーダルタスクを実行することができる。
マルチモーダル命令と呼ばれる宣言型タスクインタフェース上に構築された汎用モデル学習システムOFASysをリリースする。
論文 参考訳(メタデータ) (2022-12-08T17:07:09Z) - Task Adaptive Parameter Sharing for Multi-Task Learning [114.80350786535952]
Adaptive Task Adapting Sharing(TAPS)は、階層の小さなタスク固有のサブセットを適応的に修正することで、ベースモデルを新しいタスクにチューニングする手法である。
他の手法と比較して、TAPSはダウンストリームタスクに対して高い精度を維持し、タスク固有のパラメータは少ない。
我々は,タスクやアーキテクチャ(ResNet,DenseNet,ViT)を微調整して評価し,実装が簡単でありながら最先端の性能を実現することを示す。
論文 参考訳(メタデータ) (2022-03-30T23:16:07Z) - Multi-Task Learning with Sequence-Conditioned Transporter Networks [67.57293592529517]
シーケンスコンディショニングと重み付きサンプリングのレンズによるマルチタスク学習の実現を目指している。
合成タスクを対象とした新しいベンチマークであるMultiRavensを提案する。
次に,視覚に基づくエンドツーエンドシステムアーキテクチャであるSequence-Conditioned Transporter Networksを提案する。
論文 参考訳(メタデータ) (2021-09-15T21:19:11Z) - Exploring Relational Context for Multi-Task Dense Prediction [76.86090370115]
我々は,共通バックボーンと独立タスク固有のヘッドで表される,密集予測タスクのためのマルチタスク環境を考える。
マルチタスク設定では,グローバルやローカルなど,さまざまな注意に基づくコンテキストを探索する。
タスクペアごとに利用可能なすべてのコンテキストのプールをサンプリングするAdaptive Task-Relational Contextモジュールを提案する。
論文 参考訳(メタデータ) (2021-04-28T16:45:56Z) - Low Resource Multi-Task Sequence Tagging -- Revisiting Dynamic
Conditional Random Fields [67.51177964010967]
異なるタスクに対するラベルシーケンス間の依存関係を利用する低リソースマルチタスクシーケンスタグの異なるモデルを比較した。
タスク予測間の相互依存性の明示的モデリングは、通常のマルチタスクモデルと同様にシングルタスクよりも優れていることがわかった。
論文 参考訳(メタデータ) (2020-05-01T07:11:34Z) - Meta Reinforcement Learning with Autonomous Inference of Subtask
Dependencies [57.27944046925876]
本稿では,タスクがサブタスクグラフによって特徴づけられるような,新しい数発のRL問題を提案し,対処する。
メタ政治を直接学習する代わりに、Subtask Graph Inferenceを使ったメタラーナーを開発した。
実験の結果,2つのグリッドワールド領域とStarCraft II環境において,提案手法が潜在タスクパラメータを正確に推定できることが確認された。
論文 参考訳(メタデータ) (2020-01-01T17:34:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。