論文の概要: Applications of human activity recognition in industrial processes --
Synergy of human and technology
- arxiv url: http://arxiv.org/abs/2212.02266v1
- Date: Mon, 5 Dec 2022 13:45:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-06 15:54:34.506372
- Title: Applications of human activity recognition in industrial processes --
Synergy of human and technology
- Title(参考訳): 産業プロセスにおける人間活動認識の応用 -人間と技術のエネルギー-
- Authors: Friedrich Niemann, Christopher Reining, H\"ulya Bas and Sven Franke
- Abstract要約: 内科領域におけるヒトの行動認識に関する研究について紹介する。
人間の活動を記述するために意味的属性をどのように利用できるかを示す。
トレーニングデータセット作成に必要な労力と時間を削減できるサイバー物理双生児に基づく概念を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Human-technology collaboration relies on verbal and non-verbal communication.
Machines must be able to detect and understand the movements of humans to
facilitate non-verbal communication. In this article, we introduce ongoing
research on human activity recognition in intralogistics, and show how it can
be applied in industrial settings. We show how semantic attributes can be used
to describe human activities flexibly and how context informantion increases
the performance of classifiers to recognise them automatically. Beyond that, we
present a concept based on a cyber-physical twin that can reduce the effort and
time necessary to create a training dataset for human activity recognition. In
the future, it will be possible to train a classifier solely with realistic
simulation data, while maintaining or even increasing the classification
performance.
- Abstract(参考訳): ヒューマンテクノロジーのコラボレーションは、言語コミュニケーションと非言語コミュニケーションに依存している。
機械は人間の動きを検出し、理解し、非言語コミュニケーションを促進する必要がある。
本稿では,イントラロジクスにおけるヒューマンアクティビティ認識に関する現在進行中の研究を紹介するとともに,産業環境での応用について述べる。
本研究では,人間の行動に柔軟に記述できる意味的属性と,文脈情報化によって分類器の性能が向上し,自動的に認識できることを示す。
さらに,人間の行動認識のためのトレーニングデータセットを作成するために必要な労力と時間を削減できる,サイバーフィジカル双生児に基づく概念を提案する。
将来的には,分類性能の維持や向上を図りつつ,現実的なシミュレーションデータのみで分類器を訓練することが可能となる。
関連論文リスト
- Visual-Geometric Collaborative Guidance for Affordance Learning [63.038406948791454]
本稿では,視覚的・幾何学的手がかりを取り入れた視覚・幾何学的協調学習ネットワークを提案する。
本手法は,客観的指標と視覚的品質の代表的なモデルより優れている。
論文 参考訳(メタデータ) (2024-10-15T07:35:51Z) - Multimodal Fusion with LLMs for Engagement Prediction in Natural Conversation [70.52558242336988]
我々は,不関心や混乱の兆候を検出することを目的として,言語的および非言語的手がかりを精査することにより,ダイアディック的相互作用における係り合いを予測することに焦点を当てた。
本研究では,カジュアルなダイアディック会話に携わる34人の参加者を対象に,各会話の最後に自己報告されたエンゲージメント評価を行うデータセットを収集する。
大規模言語モデル(LLMs)を用いた新たな融合戦略を導入し,複数行動モダリティをマルチモーダル・トランスクリプトに統合する。
論文 参考訳(メタデータ) (2024-09-13T18:28:12Z) - Real-time Addressee Estimation: Deployment of a Deep-Learning Model on
the iCub Robot [52.277579221741746]
住所推定は、社会ロボットが人間とスムーズに対話するために必要なスキルである。
人間の知覚スキルにインスパイアされたディープラーニングモデルは、iCubロボットに設計、訓練、デプロイされる。
本研究では,人間-ロボットのリアルタイムインタラクションにおいて,そのような実装の手順とモデルの性能について述べる。
論文 参考訳(メタデータ) (2023-11-09T13:01:21Z) - CHARM: A Hierarchical Deep Learning Model for Classification of Complex
Human Activities Using Motion Sensors [0.9594432031144714]
CHARMは、モーションセンサーを用いた複雑な人間の活動の分類のための階層的なディープラーニングモデルである。
これは、平均精度とF1スコアの点で、最先端のアクティビティ認識のための最先端の教師付き学習アプローチよりも優れています。
ハイレベルなアクティビティラベルのみを使用してトレーニングされた場合、低レベルなユーザアクティビティを学習する能力は、HARタスクの半教師付き学習の道を開く可能性がある。
論文 参考訳(メタデータ) (2022-07-16T01:36:54Z) - BOSS: A Benchmark for Human Belief Prediction in Object-context
Scenarios [14.23697277904244]
本稿では,人間と自律システム間の協調を促進させる手法を検討するために,心の理論(ToM)とオブジェクトコンテキスト関係(Object-Context Relations)の複合知識を利用する。
本稿では、人工知能(AI)システムによる、オブジェクトコンテキストシナリオにおける人間の信念状態の予測能力を評価するための、新しい、かつ挑戦的なマルチモーダルビデオデータセットを提案する。
論文 参考訳(メタデータ) (2022-06-21T18:29:17Z) - Data-driven emotional body language generation for social robotics [58.88028813371423]
社会ロボティクスでは、人間型ロボットに感情の身体的表現を生成する能力を与えることで、人間とロボットの相互作用とコラボレーションを改善することができる。
我々は、手作業で設計されたいくつかの身体表現から学習する深層学習データ駆動フレームワークを実装した。
評価実験の結果, 生成した表現の人間同型とアニマシーは手作りの表現と異なる認識が得られなかった。
論文 参考訳(メタデータ) (2022-05-02T09:21:39Z) - Cognitive architecture aided by working-memory for self-supervised
multi-modal humans recognition [54.749127627191655]
人間パートナーを認識する能力は、パーソナライズされた長期的な人間とロボットの相互作用を構築するための重要な社会的スキルです。
ディープラーニングネットワークは最先端の結果を達成し,そのような課題に対処するための適切なツールであることが実証された。
1つの解決策は、ロボットに自己スーパービジョンで直接の感覚データから学習させることである。
論文 参考訳(メタデータ) (2021-03-16T13:50:24Z) - Human Activity Recognition Using Multichannel Convolutional Neural
Network [0.0]
人間の活動認識(HAR)は、単に人間の行動を知覚する機械の能力を指します。
本論文では,実用的行動から収集したデータに基づいて,人間の行動を区別できる教師付き学習法について述べる。
このモデルはUCI HARデータセットでテストされ、95.25%の分類精度が得られた。
論文 参考訳(メタデータ) (2021-01-17T16:48:17Z) - Simultaneous Learning from Human Pose and Object Cues for Real-Time
Activity Recognition [11.290467061493189]
本研究では,人間の行動にかかわるポーズや物体の観察から同時に学習することで,人間の行動認識に対する新しいアプローチを提案する。
提案手法は従来の手法より優れ,104Hzの処理速度で人間の行動認識のリアルタイム性能を得る。
論文 参考訳(メタデータ) (2020-03-26T22:04:37Z) - Continuous Emotion Recognition via Deep Convolutional Autoencoder and
Support Vector Regressor [70.2226417364135]
マシンはユーザの感情状態を高い精度で認識できることが不可欠である。
ディープニューラルネットワークは感情を認識する上で大きな成功を収めている。
表情認識に基づく連続的感情認識のための新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-01-31T17:47:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。