論文の概要: Automating Timed Up and Go Phase Segmentation and Gait Analysis via the tugturn Markerless 3D Pipeline
- arxiv url: http://arxiv.org/abs/2602.21425v1
- Date: Tue, 24 Feb 2026 22:56:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-26 18:19:16.63297
- Title: Automating Timed Up and Go Phase Segmentation and Gait Analysis via the tugturn Markerless 3D Pipeline
- Title(参考訳): タグターンマーカーレス3Dパイプラインによる時間・ゴー位相分割・歩行解析の自動化
- Authors: Abel Gonçalves Chinaglia, Guilherme Manna Cesar, Paulo Roberto Pereira Santiago,
- Abstract要約: 3DマーカーレスTUG解析のためのPythonベースのワークフローである textittugturn.py を提示する。
パイプラインは、それぞれの試行をスタンド、第1歩行、ターン、第2歩行、座り歩行に分割し、相対距離戦略を適用してヒールストライクやつま先イベントを検出する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Instrumented Timed Up and Go (TUG) analysis can support clinical and research decision-making, but robust and reproducible markerless pipelines are still limited. We present \textit{tugturn.py}, a Python-based workflow for 3D markerless TUG processing that combines phase segmentation, gait-event detection, spatiotemporal metrics, intersegmental coordination, and dynamic stability analysis. The pipeline uses spatial thresholds to segment each trial into stand, first gait, turning, second gait, and sit phases, and applies a relative-distance strategy to detect heel-strike and toe-off events within valid gait windows. In addition to conventional kinematics, \textit{tugturn} provides Vector Coding outputs and Extrapolated Center of Mass (XCoM)-based metrics. The software is configured through TOML files and produces reproducible artifacts, including HTML reports, CSV tables, and quality-assurance visual outputs. A complete runnable example is provided with test data and command-line instructions. This manuscript describes the implementation, outputs, and reproducibility workflow of \textit{tugturn} as a focused software contribution for markerless biomechanical TUG analysis.
- Abstract(参考訳): TUG(Instrumented Timed Up and Go)分析は臨床および研究の意思決定をサポートするが、堅牢で再現可能なマーカーレスパイプラインはまだ限られている。
本稿では,3次元マーカーレスTUG処理のためのPythonベースのワークフローであるtextit{tugturn.py}について述べる。
パイプラインは、各試行をスタント、第1歩行、ターン、第2歩行、シットフェーズに分割し、相対距離戦略を適用して、有効なゲイトウィンドウ内のヒールストライクおよびつま先イベントを検出する。
従来のキネマティクスに加えて、‘textit{tugturn} はベクトル符号化出力とXCoM(Extrapolated Center of Mass)ベースのメトリクスを提供する。
ソフトウェアはTOMLファイルを通じて構成され、HTMLレポート、CSVテーブル、品質保証ビジュアル出力を含む再現可能な成果物を生成する。
完全な実行可能な例には、テストデータとコマンドライン命令が提供されている。
本書では, マーカーレスバイオメカニカルTUG解析のためのソフトウェアとして, textit{tugturn} の実装, 出力, 再現性ワークフローについて述べる。
関連論文リスト
- Causal Graph Spatial-Temporal Autoencoder for Reliable and Interpretable Process Monitoring [14.050990954092809]
本稿では,産業プロセス監視のための因果グラフ空間時間オートエンコーダ(CGSTAE)を提案する。
CGSTAEのネットワークアーキテクチャは、相関グラフ構造学習モジュールと時空間エンコーダデコーダモジュールの2つのコンポーネントを組み合わせる。
提案したCGSTAEは,特徴空間と残差空間の2つの統計量を用いて,効率的なプロセス監視と故障検出を可能にする。
論文 参考訳(メタデータ) (2026-02-03T02:18:09Z) - Few-Shot Video Object Segmentation in X-Ray Angiography Using Local Matching and Spatio-Temporal Consistency Loss [13.850743997507488]
探索空間を最も近いピクセルに制限する局所マッチング戦略を用いた新しいFSVOSモデルを提案する。
具体的には、動的に異なるサンプリング領域を実現できる非パラメトリックサンプリング機構を実装した。
この研究は、幅広い臨床応用のための強化されたポテンシャルを提供する。
論文 参考訳(メタデータ) (2026-01-02T21:26:28Z) - Stroke Lesion Segmentation in Clinical Workflows: A Modular, Lightweight, and Deployment-Ready Tool [0.08699280339422537]
nnU-Netのようなディープラーニングフレームワークは、脳病変のセグメンテーションにおいて最先端のパフォーマンスを達成するが、臨床展開は困難である。
textitStrokeSegは、研究グレードの脳梗塞のセグメンテーションモデルをデプロイ可能なアプリケーションに変換するモジュール式で軽量なフレームワークである。
論文 参考訳(メタデータ) (2025-10-28T12:56:48Z) - LESS: Label-Efficient and Single-Stage Referring 3D Segmentation [55.06002976797879]
参照3Dは、クエリの文で記述された3Dポイントクラウドから、指定されたオブジェクトのすべてのポイントをセグメントする視覚言語タスクである。
本稿では,LESSと呼ばれるレファレンス3次元パイプラインを提案する。
ScanReferデータセット上での最先端のパフォーマンスは、バイナリラベルのみを使用して、以前の3.7% mIoUの手法を上回ります。
論文 参考訳(メタデータ) (2024-10-17T07:47:41Z) - SegVG: Transferring Object Bounding Box to Segmentation for Visual Grounding [56.079013202051094]
ボックスレベルのアノテーションを信号として転送する新しい手法であるSegVGを提案する。
このアプローチでは,ボックスレベルのレグレッションとピクセルレベルのセグメンテーションの両方の信号としてアノテーションを反復的に利用することができる。
論文 参考訳(メタデータ) (2024-07-03T15:30:45Z) - Fully and Weakly Supervised Referring Expression Segmentation with
End-to-End Learning [50.40482222266927]
Referring Expression(RES)は、与えられた言語表現に従ってターゲットをローカライズし、セグメンテーションすることを目的としている。
そこで我々は,カーネル分割パイプラインを並列に構築し,より分離し,局所化とセグメント化のステップと相互作用する。
我々の手法は単純だが驚くほど効果的であり、完全に教師された設定と弱い設定において、従来の最先端のRES手法よりも優れている。
論文 参考訳(メタデータ) (2022-12-17T08:29:33Z) - STEP: Segmenting and Tracking Every Pixel [107.23184053133636]
新しいベンチマークを示す: Segmenting and Tracking Every Pixel (STEP)
私たちの仕事は、空間領域と時間領域の両方で密な解釈を必要とする現実世界の設定で、このタスクをターゲットとする最初のものです。
性能を測定するために,新しい評価指標と追跡品質(STQ)を提案する。
論文 参考訳(メタデータ) (2021-02-23T18:43:02Z) - Line Segment Detection Using Transformers without Edges [22.834316796018705]
提案手法はLinE segment TRansformers (LETR) と呼ばれ,本領域の3つの問題に対処する。
Wireframe と YorkUrban のベンチマークで最新の結果を示す。
論文 参考訳(メタデータ) (2021-01-06T08:00:18Z) - Upgraded W-Net with Attention Gates and its Application in Unsupervised
3D Liver Segmentation [0.0]
自動セグメンテーションのための教師なしディープラーニングに基づくアプローチを提案する。
我々はW-Netアーキテクチャを使用し、それを3Dボリュームに適用できるように修正した。
提案法は,手動セグメンテーションと比較して肝臓セグメンテーションに対するサイス係数0.88で有望な結果を示した。
論文 参考訳(メタデータ) (2020-11-20T21:45:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。