論文の概要: A Symbolic Representation of Human Posture for Interpretable Learning
and Reasoning
- arxiv url: http://arxiv.org/abs/2210.08998v1
- Date: Mon, 17 Oct 2022 12:22:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-18 18:52:30.158568
- Title: A Symbolic Representation of Human Posture for Interpretable Learning
and Reasoning
- Title(参考訳): 解釈型学習と推論のための人間の姿勢の記号表現
- Authors: Richard G. Freedman, Joseph B. Mueller, Jack Ladwig, Steven Johnston,
Helen Wauck, Ruta Wheelock, Hayley Borck
- Abstract要約: 我々は,人間の姿勢を,より親しみやすい言葉で表現する質的空間推論手法を導入する。
本稿では,2つのレベルでのシンボル表現の導出と,その予備的利用について述べる。
- 参考スコア(独自算出の注目度): 2.678461526933908
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Robots that interact with humans in a physical space or application need to
think about the person's posture, which typically comes from visual sensors
like cameras and infra-red. Artificial intelligence and machine learning
algorithms use information from these sensors either directly or after some
level of symbolic abstraction, and the latter usually partitions the range of
observed values to discretize the continuous signal data. Although these
representations have been effective in a variety of algorithms with respect to
accuracy and task completion, the underlying models are rarely interpretable,
which also makes their outputs more difficult to explain to people who request
them. Instead of focusing on the possible sensor values that are familiar to a
machine, we introduce a qualitative spatial reasoning approach that describes
the human posture in terms that are more familiar to people. This paper
explores the derivation of our symbolic representation at two levels of detail
and its preliminary use as features for interpretable activity recognition.
- Abstract(参考訳): 物理的な空間やアプリケーションで人間と対話するロボットは、通常、カメラや赤外線のような視覚センサーから得られる姿勢について考える必要がある。
人工知能と機械学習アルゴリズムは、これらのセンサーからの情報を何らかのシンボリック抽象化の後に使用し、後者は通常、観測された値の範囲を分割して連続した信号データを識別する。
これらの表現は精度やタスク完了に関して様々なアルゴリズムで有効であるが、基礎となるモデルはほとんど解釈できないため、要求する人にその出力を説明するのが難しくなっている。
機械に親しみやすいセンサ値に注目するのではなく、より人間に親しみやすい言葉で人間の姿勢を記述する質的空間推論アプローチを導入する。
本稿では,2段階の細部における記号表現の導出と,その予備的利用について検討する。
関連論文リスト
- Adaptive Language-Guided Abstraction from Contrastive Explanations [53.48583372522492]
報酬を計算するためにこれらの特徴をどのように使うべきかを決定する前に、環境のどの特徴が関係しているかを決定する必要がある。
連立特徴と報奨学習のためのエンドツーエンドの手法は、しばしば、刺激的な状態特徴に敏感な脆い報酬関数をもたらす。
本稿では,言語モデルを用いて人間に意味のある特徴を反復的に識別するALGAEという手法について述べる。
論文 参考訳(メタデータ) (2024-09-12T16:51:58Z) - Modeling User Preferences via Brain-Computer Interfacing [54.3727087164445]
我々はBrain-Computer Interface技術を用いてユーザの好みを推測し、その注意力は視覚的コンテンツと感情的体験との関連性に相関する。
我々はこれらを,情報検索,生成モデルのパーソナライズされたステアリング,感情経験のクラウドソーシング人口推定など,関連するアプリケーションにリンクする。
論文 参考訳(メタデータ) (2024-05-15T20:41:46Z) - Emotion Recognition from the perspective of Activity Recognition [0.0]
人間の感情状態、行動、反応を現実世界の環境に適応させることは、潜伏した連続した次元を用いて達成できる。
感情認識システムが現実のモバイルおよびコンピューティングデバイスにデプロイされ統合されるためには、世界中の収集されたデータを考慮する必要がある。
本稿では,注目機構を備えた新しい3ストリームエンドツーエンドのディープラーニング回帰パイプラインを提案する。
論文 参考訳(メタデータ) (2024-03-24T18:53:57Z) - Human-oriented Representation Learning for Robotic Manipulation [64.59499047836637]
人間は本質的に、操作作業において環境を効率的に探索し、相互作用することを可能にする、一般化可能な視覚表現を持っている。
我々は、このアイデアを、事前訓練された視覚エンコーダの上に、人間指向のマルチタスク微調整のレンズを通してフォーマル化する。
我々のタスクフュージョンデコーダは、下流操作ポリシー学習のための最先端の3つのビジュアルエンコーダの表現を一貫して改善する。
論文 参考訳(メタデータ) (2023-10-04T17:59:38Z) - Towards Learning Discrete Representations via Self-Supervision for
Wearables-Based Human Activity Recognition [7.086647707011785]
ウェアラブルコンピューティングにおけるヒューマンアクティビティ認識(HAR)は、通常、センサーデータの直接処理に基づいている。
ウェアラブルアプリケーションへのベクトル量子化(VQ)の最近の進歩により、センサデータの短いスパンとベクトルのコードブックのマッピングを直接学習できるようになりました。
この研究は、離散表現がいかに効果的に導出できるかを示すための概念実証を示す。
論文 参考訳(メタデータ) (2023-06-01T19:49:43Z) - Preserving Privacy in Human-Motion Affect Recognition [4.753703852165805]
本研究は,3次元の時間的関節信号と手動抽出特徴を用いた感情認識における既存手法の有効性を評価する。
本稿では,マルチエンコーダ自動エンコーダ深層ニューラルネットワークを訓練し,人間の動作特徴の不連続な潜在表現を学習するクロスサブジェクトトランスファー学習手法を提案する。
論文 参考訳(メタデータ) (2021-05-09T15:26:21Z) - Matching Representations of Explainable Artificial Intelligence and Eye
Gaze for Human-Machine Interaction [0.7742297876120561]
タスクベース刺激の迅速な非言語コミュニケーションは、人間と機械のコラボレーションにおける課題である。
本研究では、運転行動予測のためのニューラルネットワークの視覚的ヒートマップ説明と、運転者の視線熱マップとの相関について検討する。
論文 参考訳(メタデータ) (2021-01-30T07:42:56Z) - Task-relevant Representation Learning for Networked Robotic Perception [74.0215744125845]
本稿では,事前学習されたロボット知覚モデルの最終的な目的と協調して設計された感覚データのタスク関連表現を学習するアルゴリズムを提案する。
本アルゴリズムは,ロボットの知覚データを競合する手法の最大11倍まで積極的に圧縮する。
論文 参考訳(メタデータ) (2020-11-06T07:39:08Z) - DRG: Dual Relation Graph for Human-Object Interaction Detection [65.50707710054141]
人-物間相互作用(HOI)検出の課題に対処する。
既存の方法は、人間と物体の対の相互作用を独立に認識するか、複雑な外観に基づく共同推論を行う。
本稿では,抽象的空間意味表現を活用して,各対象対を記述し,二重関係グラフを用いてシーンの文脈情報を集約する。
論文 参考訳(メタデータ) (2020-08-26T17:59:40Z) - Human Activity Recognition from Wearable Sensor Data Using
Self-Attention [2.9023633922848586]
本稿では,身体のセンサデータから行動認識のための自己認識型ニューラルネットワークモデルを提案する。
一般に公開されている4つのHARデータセット、PAMAP2、Opportunity、Skoda、USC-HADについて実験を行った。
ベンチマークテスト対象とLeave-out-subject評価の両方において,最近の最先端モデルよりも高い性能向上を実現している。
論文 参考訳(メタデータ) (2020-03-17T14:16:57Z) - Continuous Emotion Recognition via Deep Convolutional Autoencoder and
Support Vector Regressor [70.2226417364135]
マシンはユーザの感情状態を高い精度で認識できることが不可欠である。
ディープニューラルネットワークは感情を認識する上で大きな成功を収めている。
表情認識に基づく連続的感情認識のための新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-01-31T17:47:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。