論文の概要: Behavioural pattern discovery from collections of egocentric
photo-streams
- arxiv url: http://arxiv.org/abs/2008.09561v1
- Date: Fri, 21 Aug 2020 16:05:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-26 21:55:56.558722
- Title: Behavioural pattern discovery from collections of egocentric
photo-streams
- Title(参考訳): エゴセントリック光ストリーム群からの行動パターン発見
- Authors: Martin Menchon, Estefania Talavera, Jose M Massa and Petia Radeva
- Abstract要約: エゴセントリックなイメージは、カメラ装着者の日常生活を豊かで客観的に記述する。
収集した自我中心の写真ストリームから人の行動パターンを識別する新しい手法を提案する。
- 参考スコア(独自算出の注目度): 9.15016218800502
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The automatic discovery of behaviour is of high importance when aiming to
assess and improve the quality of life of people. Egocentric images offer a
rich and objective description of the daily life of the camera wearer. This
work proposes a new method to identify a person's patterns of behaviour from
collected egocentric photo-streams. Our model characterizes time-frames based
on the context (place, activities and environment objects) that define the
images composition. Based on the similarity among the time-frames that describe
the collected days for a user, we propose a new unsupervised greedy method to
discover the behavioural pattern set based on a novel semantic clustering
approach. Moreover, we present a new score metric to evaluate the performance
of the proposed algorithm. We validate our method on 104 days and more than
100k images extracted from 7 users. Results show that behavioural patterns can
be discovered to characterize the routine of individuals and consequently their
lifestyle.
- Abstract(参考訳): 行動の自動発見は、人々の生活の質を評価し改善する上で非常に重要である。
エゴセントリックなイメージは、カメラ装着者の日常生活を豊かで客観的に記述する。
本研究では,収集した自我中心の写真ストリームから行動パターンを識別する新しい手法を提案する。
本モデルでは,画像構成を定義するコンテキスト(場所,活動,環境オブジェクト)に基づいて,時間枠を特徴付ける。
ユーザの収集した日数を記述した時間枠間の類似性に基づいて,新しい意味的クラスタリング手法に基づいて行動パターン集合を探索する非教師付きグリーディ手法を提案する。
さらに,提案アルゴリズムの性能評価のための新しいスコア指標を提案する。
7ユーザから抽出した104日と10万枚以上の画像を検証した。
その結果,個人の生活習慣や生活習慣を特徴付ける行動パターンが発見できることがわかった。
関連論文リスト
- Evaluating Multiview Object Consistency in Humans and Image Models [68.36073530804296]
我々は、物体の形状に関するゼロショット視覚的推論を必要とする認知科学の実験的設計を活用する。
我々は500人以上の参加者から行動データの35万件の試行を収集した。
次に、一般的な視覚モデルの性能を評価する。
論文 参考訳(メタデータ) (2024-09-09T17:59:13Z) - Reinforcing Pre-trained Models Using Counterfactual Images [54.26310919385808]
本稿では,言語誘導型生成対実画像を用いた分類モデル強化のための新しいフレームワークを提案する。
逆ファクト画像データセットを用いてモデルをテストすることにより、モデルの弱点を同定する。
我々は、分類モデルを微調整し強化するために、デファクトイメージを拡張データセットとして採用する。
論文 参考訳(メタデータ) (2024-06-19T08:07:14Z) - Stellar: Systematic Evaluation of Human-Centric Personalized
Text-to-Image Methods [52.806258774051216]
我々は,個々のイメージを入力し,生成プロセスの基盤となるテキストと,所望の視覚的コンテキストを記述したテキストに焦点をあてる。
我々は,既存の関連するデータセットよりも桁違いの大きさの個人画像と,リッチなセマンティックな接地真実アノテーションが容易に利用できるパーソナライズされたプロンプトを含む標準化データセット(Stellar)を紹介した。
被験者ごとにテストタイムの微調整を必要とせず,新しいSoTAを定量的かつ人為的に設定した,シンプルで効率的でパーソナライズされたテキスト・ツー・イメージのベースラインを導出する。
論文 参考訳(メタデータ) (2023-12-11T04:47:39Z) - Let's ViCE! Mimicking Human Cognitive Behavior in Image Generation
Evaluation [96.74302670358145]
生成/編集された画像と対応するプロンプト/インストラクションの整合性を評価するために,視覚概念評価(ViCE)の自動手法を提案する。
ViCEは、Large Language Models(LLM)とVisual Question Answering(VQA)の強みを統合パイプラインに統合し、品質評価において人間の認知プロセスを再現することを目指している。
論文 参考訳(メタデータ) (2023-07-18T16:33:30Z) - Learning Behavioral Representations of Routines From Large-scale
Unlabeled Wearable Time-series Data Streams using Hawkes Point Process [36.22926175850112]
連続的に装着されたウェアラブルセンサーは、研究者が日々の生活の実際の活動に関する大量の生物行動時系列記録を収集することを可能にする。
ROutine Discovery (HOT-ROD)のための新しいウェアラブル時系列マイニングフレームワーク, Hawkes Point Process On Time Series Clusterを提案する。
10週間の間,職場内外から100人以上の個人から連続的に収集された全くラベルのない時系列を用いて,日常的な行動の抽出手法を実証的に検証した。
論文 参考訳(メタデータ) (2023-07-10T09:53:14Z) - Measuring Human Perception to Improve Open Set Recognition [4.124573231232705]
オブジェクトが特定の視覚タスクに属しているか、属していないかを認識できる能力は、すべてのオープンセット認識アルゴリズムより優れている。
被験者による測定された反応時間は、クラスサンプルが別のクラスと混同される傾向にあるかどうかについての洞察を与えることができる。
新たな精神物理学的損失関数は、異なる画像に対する可変反応時間を示すディープネットワークにおける人間の行動と整合性を強制する。
論文 参考訳(メタデータ) (2022-09-08T01:19:36Z) - Revisiting spatio-temporal layouts for compositional action recognition [63.04778884595353]
私たちは、アクション認識にオブジェクト中心のアプローチを取ります。
本論文の主な焦点は、合成/ファウショット動作認識である。
レイアウトモデルとの融合による外観モデルの性能向上を実証する。
論文 参考訳(メタデータ) (2021-11-02T23:04:39Z) - Focus on the Positives: Self-Supervised Learning for Biodiversity
Monitoring [9.086207853136054]
ラベルのない画像コレクションから自己教師付き表現を学習する問題に対処する。
我々は,入力画像間の空間的関係や時間的関係などの情報を符号化する,手軽に利用可能なコンテキストデータを利用する。
地球生物多様性監視の重要課題として、人間の監督が限定された視覚的種分類タスクに適応可能な画像特徴があげられる。
論文 参考訳(メタデータ) (2021-08-14T01:12:41Z) - FP-Age: Leveraging Face Parsing Attention for Facial Age Estimation in
the Wild [50.8865921538953]
年齢推定に顔のセマンティクスを明示的に組み込む手法を提案する。
我々は,顔解析に基づくネットワークを設計し,異なるスケールで意味情報を学習する。
提案手法は,既存の年齢推定手法を常に上回っていることを示す。
論文 参考訳(メタデータ) (2021-06-21T14:31:32Z) - Just Noticeable Difference for Machine Perception and Generation of
Regularized Adversarial Images with Minimal Perturbation [8.920717493647121]
人間の知覚のジャスト通知差(JND)の概念に触発された機械知覚の尺度を紹介します。
本稿では,機械学習モデルが偽ラベルを出力することで画像の変化を検出するまで,画像を付加雑音で反復的に歪曲する逆画像生成アルゴリズムを提案する。
CIFAR10、ImageNet、MS COCOデータセット上で、アルゴリズムが生成する対向画像の定性的および定量的評価を行います。
論文 参考訳(メタデータ) (2021-02-16T11:01:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。