論文の概要: Future Aspects in Human Action Recognition: Exploring Emerging Techniques and Ethical Influences
- arxiv url: http://arxiv.org/abs/2412.12990v1
- Date: Tue, 17 Dec 2024 15:07:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-18 13:57:02.655361
- Title: Future Aspects in Human Action Recognition: Exploring Emerging Techniques and Ethical Influences
- Title(参考訳): 人間の行動認識の今後 : 創発的技術と倫理的影響を探る
- Authors: Antonios Gasteratos, Stavros N. Moutsis, Konstantinos A. Tsintotas, Yiannis Aloimonos,
- Abstract要約: 視覚に基づく人間の行動認識は、様々な応用分野において見られる。
次世代のハードウェアセンサーは、この問題に対処するロボットコミュニティをガイドする。
ヒューマンファクターの関与は、研究コミュニティの倫理的問題を提起する。
- 参考スコア(独自算出の注目度): 14.065014861242137
- License:
- Abstract: Visual-based human action recognition can be found in various application fields, e.g., surveillance systems, sports analytics, medical assistive technologies, or human-robot interaction frameworks, and it concerns the identification and classification of individuals' activities within a video. Since actions typically occur over a sequence of consecutive images, it is particularly challenging due to the inclusion of temporal analysis, which introduces an extra layer of complexity. However, although multiple approaches try to handle temporal analysis, there are still difficulties because of their computational cost and lack of adaptability. Therefore, different types of vision data, containing transition information between consecutive images, provided by next-generation hardware sensors will guide the robotics community in tackling the problem of human action recognition. On the other hand, while there is a plethora of still-image datasets, that researchers can adopt to train new artificial intelligence models, videos representing human activities are of limited capabilities, e.g., small and unbalanced datasets or selected without control from multiple sources. To this end, generating new and realistic synthetic videos is possible since labeling is performed throughout the data creation process, while reinforcement learning techniques can permit the avoidance of considerable dataset dependence. At the same time, human factors' involvement raises ethical issues for the research community, as doubts and concerns about new technologies already exist.
- Abstract(参考訳): 視覚に基づく人間の行動認識は、監視システム、スポーツ分析、医療補助技術、人間とロボットの相互作用のフレームワークなど、様々な応用分野に存在し、ビデオ内の個人の活動の識別と分類に関係している。
アクションは通常連続した画像の連続で起こるため、時間的分析が加わり、余分な複雑さの層が生じるため、特に困難である。
しかし、複数の手法が時間解析を処理しようとするが、計算コストと適応性の欠如により、依然として困難である。
したがって、次世代ハードウェアセンサーによって提供される連続画像間の遷移情報を含む視覚データの種類は、人間の行動認識の問題に取り組むロボットコミュニティを導くことになる。
一方で、研究者が新しい人工知能モデルをトレーニングするために採用できるような画像データセットはたくさんありますが、人間の活動を表すビデオは、例えば、小さくてバランスの取れていないデータセットや、複数のソースから制御せずに選択されるような限られた能力を備えています。
この目的のために、データ生成プロセス全体でラベル付けが行われ、強化学習技術によりかなりのデータセット依存を回避することができるため、新しいリアルな合成ビデオを生成することが可能である。
同時に、人的要因の関与は、新しい技術に対する疑念や懸念がすでに存在しているため、研究コミュニティの倫理的問題を提起する。
関連論文リスト
- Generative Technology for Human Emotion Recognition: A Scope Review [11.578408396744237]
本調査は,2024年6月までに320以上の研究論文を総合的に分析し,既存の文献のギャップを埋めることを目的としている。
異なる生成モデルと一般的に使用されるデータセットの数学的原理を導入する。
様々なモダリティに基づいて、生成技術がどのように感情認識に対処するかを詳細に分析する。
論文 参考訳(メタデータ) (2024-07-04T05:22:55Z) - Data Augmentation in Human-Centric Vision [54.97327269866757]
本研究では,人間中心型視覚タスクにおけるデータ拡張手法の包括的分析を行う。
それは、人物のReID、人間のパーシング、人間のポーズ推定、歩行者検出など、幅広い研究領域に展開している。
我々の研究は、データ拡張手法をデータ生成とデータ摂動の2つの主なタイプに分類する。
論文 参考訳(メタデータ) (2024-03-13T16:05:18Z) - Can AI Serve as a Substitute for Human Subjects in Software Engineering
Research? [24.39463126056733]
本稿では,人工知能(AI)の能力を活用したソフトウェア工学研究における定性データ収集手法を提案する。
定性的データの代替源としてAI生成合成テキストの可能性を探る。
観察研究とユーザ評価における人間の行動のエミュレートを目的とした新しい基礎モデルの開発について論じる。
論文 参考訳(メタデータ) (2023-11-18T14:05:52Z) - Learning Human Action Recognition Representations Without Real Humans [66.61527869763819]
そこで本研究では,仮想人間を含む合成データを用いて,実世界の映像を活用してモデルを事前学習するベンチマークを提案する。
次に、このデータに基づいて学習した表現を、下流行動認識ベンチマークの様々なセットに転送可能であるかを評価する。
私たちのアプローチは、以前のベースラインを最大5%上回ります。
論文 参考訳(メタデータ) (2023-11-10T18:38:14Z) - Synthetic-to-Real Domain Adaptation for Action Recognition: A Dataset and Baseline Performances [76.34037366117234]
ロボット制御ジェスチャー(RoCoG-v2)と呼ばれる新しいデータセットを導入する。
データセットは7つのジェスチャークラスの実ビデオと合成ビデオの両方で構成されている。
我々は,最先端の行動認識とドメイン適応アルゴリズムを用いて結果を示す。
論文 参考訳(メタデータ) (2023-03-17T23:23:55Z) - Adversarial Attention for Human Motion Synthesis [3.9378507882929563]
本稿では,エンド・ツー・エンドトレーニングを用いた注意型確率的深層対角モデルの適用により,人間の動作合成を制御可能な新しい手法を提案する。
我々は, 対角的注意力を用いて, 短距離地平線と短距離地平線の両面に人工的な人間の動きを生成できることを実証した。
論文 参考訳(メタデータ) (2022-04-25T16:12:42Z) - Overcoming the Domain Gap in Neural Action Representations [60.47807856873544]
3Dポーズデータは、手動で介入することなく、マルチビュービデオシーケンスから確実に抽出できる。
本稿では,ニューラルアクション表現の符号化を,ニューラルアクションと行動拡張のセットと共に導くために使用することを提案する。
ドメインギャップを減らすために、トレーニングの間、同様の行動をしているように見える動物間で神経と行動のデータを取り替える。
論文 参考訳(メタデータ) (2021-12-02T12:45:46Z) - What Matters in Learning from Offline Human Demonstrations for Robot
Manipulation [64.43440450794495]
ロボット操作のための6つのオフライン学習アルゴリズムについて広範な研究を行う。
我々の研究は、オフラインの人間のデータから学習する際の最も重要な課題を分析します。
人間のデータセットから学ぶ機会を強調します。
論文 参考訳(メタデータ) (2021-08-06T20:48:30Z) - Preserving Privacy in Human-Motion Affect Recognition [4.753703852165805]
本研究は,3次元の時間的関節信号と手動抽出特徴を用いた感情認識における既存手法の有効性を評価する。
本稿では,マルチエンコーダ自動エンコーダ深層ニューラルネットワークを訓練し,人間の動作特徴の不連続な潜在表現を学習するクロスサブジェクトトランスファー学習手法を提案する。
論文 参考訳(メタデータ) (2021-05-09T15:26:21Z) - Learning Predictive Models From Observation and Interaction [137.77887825854768]
世界との相互作用から予測モデルを学ぶことで、ロボットのようなエージェントが世界がどのように働くかを学ぶことができる。
しかし、複雑なスキルのダイナミクスを捉えるモデルを学ぶことは大きな課題である。
本研究では,人間などの他のエージェントの観察データを用いて,トレーニングセットを増強する手法を提案する。
論文 参考訳(メタデータ) (2019-12-30T01:10:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。