論文の概要: Foldover Features for Dynamic Object Behavior Description in Microscopic
Videos
- arxiv url: http://arxiv.org/abs/2003.08628v2
- Date: Sat, 21 Mar 2020 02:49:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-22 04:23:20.983972
- Title: Foldover Features for Dynamic Object Behavior Description in Microscopic
Videos
- Title(参考訳): 顕微鏡映像における動的物体挙動記述のための折り畳み機能
- Authors: Xialin Li, Chen Li and Wenwei Zhao
- Abstract要約: 顕微鏡映像における動的物体の挙動を記述するために, 折り畳み機能を提案する。
実験では、1374種の精子を含む3種類の折り畳み機能の評価のために、精子顕微鏡ビデオデータセットを用いて行った。
- 参考スコア(独自算出の注目度): 4.194890536348037
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Behavior description is conducive to the analysis of tiny objects, similar
objects, objects with weak visual information and objects with similar visual
information, playing a fundamental role in the identification and
classification of dynamic objects in microscopic videos. To this end, we
propose foldover features to describe the behavior of dynamic objects. First,
we generate foldover for each object in microscopic videos in X, Y and Z
directions, respectively. Then, we extract foldover features from the X, Y and
Z directions with statistical methods, respectively. Finally, we use four
different classifiers to test the effectiveness of the proposed foldover
features. In the experiment, we use a sperm microscopic video dataset to
evaluate the proposed foldover features, including three types of 1374 sperms,
and obtain the highest classification accuracy of 96.5%.
- Abstract(参考訳): 行動記述は、微少な物体、類似した物体、弱い視覚情報を持つ物体、類似した視覚情報を持つ物体を分析し、顕微鏡ビデオにおける動的物体の識別と分類において基本的な役割を果たす。
この目的のために、動的オブジェクトの振る舞いを記述するために折り畳み機能を提案する。
まず、X、Y、Z方向の微視的ビデオにおいて、各物体の折り畳みをそれぞれ生成する。
そして,X,Y,Z方向の折り曲げ特徴を統計的手法で抽出する。
最後に,提案する折り畳み機能の有効性をテストするために,4種類の分類器を用いた。
実験では,3種類の1374精子を含む折り畳み機能の評価に精子顕微鏡によるビデオデータセットを用い,96.5%の分類精度を得た。
関連論文リスト
- 1st Place Solution for MOSE Track in CVPR 2024 PVUW Workshop: Complex Video Object Segmentation [72.54357831350762]
本稿では,ビデオオブジェクトのセグメンテーションモデルを提案する。
我々は大規模ビデオオブジェクトセグメンテーションデータセットを用いてモデルを訓練した。
我々のモデルは、複雑なビデオオブジェクトチャレンジのテストセットで1位(textbf84.45%)を達成した。
論文 参考訳(メタデータ) (2024-06-07T03:13:46Z) - Interactive Learning of Physical Object Properties Through Robot Manipulation and Database of Object Measurements [20.301193437161867]
このフレームワークは、テーブル上のオブジェクトに関する学習を最大化する探索的なアクション選択を含む。
ロボットパイプラインは、ロギングモジュールとオブジェクトのオンラインデータベースと統合されており、グリッパーが異なる63のオブジェクトの24,000以上の計測結果を含んでいる。
論文 参考訳(メタデータ) (2024-04-10T20:59:59Z) - A General Protocol to Probe Large Vision Models for 3D Physical Understanding [84.54972153436466]
市販の大型視覚モデルの特徴が3Dシーンの物理的な「プロパティ」をエンコードするかどうかを評価するための一般的なプロトコルを提案する。
このプロトコルは、シーン幾何学、シーン素材、サポート関係、照明、ビュー依存尺度を含むプロパティに適用する。
安定拡散とDINOv2の特徴は,多くの特性の識別学習に有効であることがわかった。
論文 参考訳(メタデータ) (2023-10-10T17:59:28Z) - Learning Dynamic Attribute-factored World Models for Efficient
Multi-object Reinforcement Learning [6.447052211404121]
多くの強化学習タスクでは、エージェントは異なるタイプの多くのオブジェクトと対話し、目に見えない組み合わせやオブジェクト数に一般化する必要がある。
最近の研究は、サンプル効率を改善するために、オブジェクト指向表現と階層的抽象化の利点を示している。
本稿では、動的属性FacTored RL(DAFT-RL)フレームワークを導入し、オブジェクト属性の係数化の利点を利用する。
論文 参考訳(メタデータ) (2023-07-18T12:41:28Z) - Adaptive Multi-source Predictor for Zero-shot Video Object Segmentation [68.56443382421878]
ゼロショットビデオオブジェクトセグメンテーション(ZVOS)のための新しい適応型マルチソース予測器を提案する。
静的オブジェクト予測器では、RGBソースは、同時に深度および静注ソースに変換される。
実験の結果,提案モデルは3つのZVOSベンチマークにおいて最先端の手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2023-03-18T10:19:29Z) - CRIPP-VQA: Counterfactual Reasoning about Implicit Physical Properties
via Video Question Answering [50.61988087577871]
CRIPP-VQA(CRIPP-VQA)は、シーン内のオブジェクトの暗黙的な物理的特性を推論するための新しいビデオ質問応答データセットである。
CRIPP-VQAには、動作中の物体のビデオが含まれており、反事実的推論に関わる疑問が注がれている。
実験の結果,暗黙的特性に関する疑問に答える上で,驚くべき,重要なパフォーマンスギャップが明らかとなった。
論文 参考訳(メタデータ) (2022-11-07T18:55:26Z) - Is an Object-Centric Video Representation Beneficial for Transfer? [86.40870804449737]
トランスアーキテクチャ上にオブジェクト中心のビデオ認識モデルを導入する。
対象中心モデルが先行映像表現より優れていることを示す。
論文 参考訳(メタデータ) (2022-07-20T17:59:44Z) - Generalization and Robustness Implications in Object-Centric Learning [23.021791024676986]
本稿では,5つの共通オブジェクトデータセット上で,最先端の教師なしモデルを訓練する。
実験結果から,ダウンストリームタスクに一般的に有用なオブジェクト中心表現が得られた。
論文 参考訳(メタデータ) (2021-07-01T17:51:11Z) - Object Priors for Classifying and Localizing Unseen Actions [45.91275361696107]
本稿では,局所人物と物体検出器をその空間的関係とともに符号化する3つの空間的対象先行法を提案する。
上述の3つのセマンティックオブジェクトプリエントを導入し、単語の埋め込みを通じてセマンティックマッチングを拡張する。
ビデオ埋め込みは、空間オブジェクトと意味オブジェクトをプリエントする。
論文 参考訳(メタデータ) (2021-04-10T08:56:58Z) - Visual Vibration Tomography: Estimating Interior Material Properties
from Monocular Video [66.94502090429806]
物体の内部の物質特性は、人間の目には見えないが、表面で観察される動きを決定する。
本研究では,物体の表面振動の単分子ビデオから物体の異種材料特性を推定する手法を提案する。
論文 参考訳(メタデータ) (2021-04-06T18:05:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。