論文の概要: Theater Aid System for the Visually Impaired Through Transfer Learning
of Spatio-Temporal Graph Convolution Networks
- arxiv url: http://arxiv.org/abs/2306.16357v1
- Date: Wed, 28 Jun 2023 16:40:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-29 13:26:06.620310
- Title: Theater Aid System for the Visually Impaired Through Transfer Learning
of Spatio-Temporal Graph Convolution Networks
- Title(参考訳): 時空間グラフ畳み込みネットワークの伝達学習による視覚障害者の劇場支援システム
- Authors: Leyla Benhamida, Slimane Larabi
- Abstract要約: 本研究の目的は、視覚障害者や視覚障害者を支援するためにステージで行う人間の行動を認識することである。
我々は,深度画像で捉えた骨格データを入力として利用する演劇人間行動認識システムを開発した。
トランスファーラーニングの使用は、劇場の文脈における人間の行動システムの性能向上に寄与した。
- 参考スコア(独自算出の注目度): 1.52292571922932
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The aim of this research is to recognize human actions performed on stage to
aid visually impaired and blind individuals. To achieve this, we have created a
theatre human action recognition system that uses skeleton data captured by
depth image as input. We collected new samples of human actions in a theatre
environment, and then tested the transfer learning technique with three
pre-trained Spatio-Temporal Graph Convolution Networks for skeleton-based human
action recognition: the spatio-temporal graph convolution network, the
two-stream adaptive graph convolution network, and the multi-scale disentangled
unified graph convolution network. We selected the NTU-RGBD human action
benchmark as the source domain and used our collected dataset as the target
domain. We analyzed the transferability of the pre-trained models and proposed
two configurations to apply and adapt the transfer learning technique to the
diversity between the source and target domains. The use of transfer learning
helped to improve the performance of the human action system within the context
of theatre. The results indicate that Spatio-Temporal Graph Convolution
Networks is positively transferred, and there was an improvement in performance
compared to the baseline without transfer learning.
- Abstract(参考訳): 本研究の目的は、視覚障害者や視覚障害者を支援するためにステージで行う人間の行動を認識することである。
そこで我々は,深度画像で捉えた骨格データを入力として利用する演劇人間行動認識システムを開発した。
劇場環境における人間の行動の新たなサンプルを収集し,スケルトンに基づく人行動認識のための3つの事前訓練された時空間グラフ畳み込みネットワーク(時空間グラフ畳み込みネットワーク,2ストリーム適応グラフ畳み込みネットワーク,およびマルチスケール不整合グラフ畳み込みネットワーク)を用いて移動学習手法を検証した。
我々は、NTU-RGBDのヒューマンアクションベンチマークをソースドメインとして選択し、収集したデータセットをターゲットドメインとして使用した。
本研究は,事前学習モデルの伝達可能性を分析し,トランスファー学習手法をソース領域とターゲット領域の多様性に適用し,適用するための2つの構成を提案した。
移行学習の使用は、演劇の文脈における人間の行動システムの性能向上に寄与した。
その結果,時空間グラフ畳み込みネットワークは肯定的に転送され,転送学習のないベースラインに比べて性能が向上した。
関連論文リスト
- Enhancing Bronchoscopy Depth Estimation through Synthetic-to-Real Domain Adaptation [2.795503750654676]
本研究では, 深度ラベル付き合成データを用いた移動学習フレームワークを提案し, 実気管支鏡データの正確な深度推定にドメイン知識を適用した。
本ネットワークは,合成データのみによるトレーニングに比べて,実際の映像の深度予測の改善を実証し,本手法の有効性を検証した。
論文 参考訳(メタデータ) (2024-11-07T03:48:35Z) - Deep Domain Adaptation: A Sim2Real Neural Approach for Improving Eye-Tracking Systems [80.62854148838359]
眼球画像のセグメンテーションは、最終視線推定に大きな影響を及ぼす眼球追跡の重要なステップである。
対象視線画像と合成訓練データとの重なり合いを測定するために,次元還元法を用いている。
提案手法は,シミュレーションと実世界のデータサンプルの相違に対処する際の頑健で,性能が向上する。
論文 参考訳(メタデータ) (2024-03-23T22:32:06Z) - Transfer learning from a sparsely annotated dataset of 3D medical images [4.477071833136902]
本研究では,医療画像における臓器分割のための深部畳み込みニューラルネットワークの性能向上のための伝達学習の活用について検討する。
ベースセグメンテーションモデルは、大小の注釈付きデータセットに基づいてトレーニングされ、その重みは4つの新しい下流セグメンテーションタスクのトランスファー学習に使用された。
その結果,小規模なデータセットが利用可能になった場合には,ベースモデルからの移動学習が有用であることが示唆された。
論文 参考訳(メタデータ) (2023-11-08T21:31:02Z) - Unsupervised Domain Transfer with Conditional Invertible Neural Networks [83.90291882730925]
条件付き可逆ニューラルネットワーク(cINN)に基づくドメイン転送手法を提案する。
提案手法は本質的に,その可逆的アーキテクチャによるサイクル一貫性を保証し,ネットワークトレーニングを最大限効率的に行うことができる。
提案手法は,2つの下流分類タスクにおいて,現実的なスペクトルデータの生成を可能にし,その性能を向上する。
論文 参考訳(メタデータ) (2023-03-17T18:00:27Z) - Joint Learning of Neural Transfer and Architecture Adaptation for Image
Recognition [77.95361323613147]
現在の最先端の視覚認識システムは、大規模データセット上でニューラルネットワークを事前トレーニングし、より小さなデータセットでネットワーク重みを微調整することに依存している。
本稿では,各ドメインタスクに適応したネットワークアーキテクチャの動的適応と,効率と効率の両面で重みの微調整の利点を実証する。
本手法は,ソースドメインタスクでスーパーネットトレーニングを自己教師付き学習に置き換え,下流タスクで線形評価を行うことにより,教師なしパラダイムに容易に一般化することができる。
論文 参考訳(メタデータ) (2021-03-31T08:15:17Z) - Domain Adaptive Robotic Gesture Recognition with Unsupervised
Kinematic-Visual Data Alignment [60.31418655784291]
本稿では,マルチモダリティ知識,すなわちキネマティックデータとビジュアルデータを同時にシミュレータから実ロボットに伝達できる,教師なしドメイン適応フレームワークを提案する。
ビデオの時間的手がかりと、ジェスチャー認識に対するマルチモーダル固有の相関を用いて、トランスファー可能な機能を強化したドメインギャップを修復する。
その結果, 本手法は, ACCでは最大12.91%, F1scoreでは20.16%と, 実際のロボットではアノテーションを使わずに性能を回復する。
論文 参考訳(メタデータ) (2021-03-06T09:10:03Z) - TraND: Transferable Neighborhood Discovery for Unsupervised Cross-domain
Gait Recognition [77.77786072373942]
本稿では、教師なしクロスドメイン歩行認識のための領域ギャップを橋渡しするTransferable Neighborhood Discovery (TraND) フレームワークを提案する。
我々は、潜在空間におけるラベルなしサンプルの自信ある近傍を自動的に発見するために、エンドツーエンドのトレーニング可能なアプローチを設計する。
提案手法は,CASIA-BとOU-LPの2つの公開データセットに対して,最先端の結果を得る。
論文 参考訳(メタデータ) (2021-02-09T03:07:07Z) - Self-supervised Human Activity Recognition by Learning to Predict
Cross-Dimensional Motion [16.457778420360537]
スマートフォン加速度計データを用いた人間行動認識のための自己教師型学習法を提案する。
まず、ラベルなし入力信号の表現は、深層畳み込みニューラルネットワークを訓練して加速度計値のセグメントを予測することによって学習される。
このタスクでは、凍結ネットワークの端に多数の完全に接続されたレイヤを追加し、ラベル付き加速度センサ信号で付加されたレイヤをトレーニングし、人間の活動の分類を学ぶ。
論文 参考訳(メタデータ) (2020-10-21T02:14:31Z) - Adversarial Bipartite Graph Learning for Video Domain Adaptation [50.68420708387015]
ドメイン適応技術は,異なる領域間のモデルを適応させることに重点を置いているが,ビデオ認識領域ではめったに研究されていない。
近年,映像のソースと対象映像の表現を統一するために,対角学習を活用する視覚領域適応はビデオにはあまり効果がない。
本稿では,ソースとターゲットの相互作用を直接モデル化するAdversarial Bipartite Graph (ABG)学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-31T03:48:41Z) - The Utility of Feature Reuse: Transfer Learning in Data-Starved Regimes [6.419457653976053]
データ・スターベド・レシエーションを持つドメインに対する転送学習のユースケースについて述べる。
畳み込み特徴抽出と微調整の有効性を評価する。
我々はトランスファーラーニングがCNNアーキテクチャの性能を向上させることを結論付けている。
論文 参考訳(メタデータ) (2020-02-29T18:48:58Z) - Inter- and Intra-domain Knowledge Transfer for Related Tasks in Deep
Character Recognition [2.320417845168326]
ImageNetデータセットでディープニューラルネットワークを事前トレーニングすることは、ディープラーニングモデルをトレーニングするための一般的なプラクティスである。
1つのタスクで事前トレーニングを行い、新しいタスクで再トレーニングするテクニックは、トランスファーラーニング(transfer learning)と呼ばれる。
本稿では,文字認識タスクにおけるDeep Transfer Learningの有効性について分析する。
論文 参考訳(メタデータ) (2020-01-02T14:18:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。