論文の概要: Logi-PAR: Logic-Infused Patient Activity Recognition via Differentiable Rule
- arxiv url: http://arxiv.org/abs/2603.05184v1
- Date: Thu, 05 Mar 2026 13:52:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-06 22:06:11.255196
- Title: Logi-PAR: Logic-Infused Patient Activity Recognition via Differentiable Rule
- Title(参考訳): Logi-PAR:差分ルールによる患者活動認識
- Authors: Muhammad Zarar, MingZheng Zhang, Xiaowang Zhang, Zhiyong Feng, Sofonias Yitagesu, Kawsar Farooq,
- Abstract要約: 臨床環境における患者活動認識(PAR)は、医療の安全性と品質を改善するために活動データを使用する。
Logi-PARは、シンボリックマッピングに学習可能な論理ルールを適用することで、患者活動を認識する最初のフレームワークである。
ルールとして説明が追跡され、事実上の介入をサポートするのは、監査可能な理由である。
- 参考スコア(独自算出の注目度): 12.888234880928026
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Patient Activity Recognition (PAR) in clinical settings uses activity data to improve safety and quality of care. Although significant progress has been made, current models mainly identify which activity is occurring. They often spatially compose sub-sparse visual cues using global and local attention mechanisms, yet only learn logically implicit patterns due to their neural-pipeline. Advancing clinical safety requires methods that can infer why a set of visual cues implies a risk, and how these can be compositionally reasoned through explicit logic beyond mere classification. To address this, we proposed Logi-PAR, the first Logic-Infused Patient Activity Recognition Framework that integrates contextual fact fusion as a multi-view primitive extractor and injects neural-guided differentiable rules. Our method automatically learns rules from visual cues, optimizing them end-to-end while enabling the implicit emergence patterns to be explicitly labelled during training. To the best of our knowledge, Logi-PAR is the first framework to recognize patient activity by applying learnable logic rules to symbolic mappings. It produces auditable why explanations as rule traces and supports counterfactual interventions (e.g., risk would decrease by 65% if assistance were present). Extensive evaluation on clinical benchmarks (VAST and OmniFall) demonstrates state-of-the-art performance, significantly outperforming Vision-Language Models and transformer baselines. The code is available via: https://github.com/zararkhan985/Logi-PAR.git}
- Abstract(参考訳): 臨床環境における患者活動認識(PAR)は、医療の安全性と品質を改善するために活動データを使用する。
顕著な進展はあったが、現在のモデルでは、どの活動が起きているかを主に特定している。
彼らはしばしば、大域的および局所的な注意機構を用いて空間的にサブスパースな視覚的手がかりを構成するが、その神経パイプによって論理的に暗黙的なパターンしか学ばない。
臨床安全性の向上には、視覚的手がかりのセットがリスクを示唆する理由を推測できる方法と、これらが単に分類を超えた明示的な論理によって構成的に推論される方法が必要である。
そこで我々は,マルチビュープリミティブ抽出器としてコンテキストファクト融合を統合し,ニューラル誘導型識別可能なルールを注入する最初のLogic-Infused patient Activity Recognition FrameworkであるLogi-PARを提案する。
本手法は,視覚的手がかりからルールを自動的に学習し,学習中に暗黙の出現パターンを明示的にラベル付けしながら,エンドツーエンドのルールを最適化する。
我々の知る限り、Logi-PARは、シンボリックマッピングに学習可能な論理ルールを適用することで、患者活動を認識する最初のフレームワークです。
ルールトレースとしての説明が事実的介入をサポートする(例えば、援助があった場合、リスクは65%減少する)のは、監査可能な理由である。
臨床ベンチマーク(VASTとOmniFall)の大規模な評価は、最先端のパフォーマンスを示し、ビジョンランゲージモデルとトランスフォーマーベースラインを大きく上回っている。
コードは、https://github.com/zararkhan985/Logi-PAR.git}を通じて入手できる。
関連論文リスト
- Detecting Hallucinations in Retrieval-Augmented Generation via Semantic-level Internal Reasoning Graph [12.233570103035312]
そこで本研究では,忠実な幻覚を検出するための意味レベルの内部推論グラフに基づく手法を提案する。
RAGTruth と Dolly-15k の最先端ベースラインと比較して総合的な性能が向上する。
論文 参考訳(メタデータ) (2026-01-06T14:35:20Z) - An Information Compensation Framework for Zero-Shot Skeleton-based Action Recognition [49.45660055499103]
ゼロショットの人間の骨格に基づく行動認識は、トレーニング中に見られるカテゴリ外の行動を認識するモデルを構築することを目的としている。
従来の研究では、シーケンスの視覚的空間分布と意味的空間分布の整合性に焦点が当てられていた。
強固で頑健な表現を得るために,新たな損失関数サンプリング手法を提案する。
論文 参考訳(メタデータ) (2024-06-02T06:53:01Z) - CREST: Cross-modal Resonance through Evidential Deep Learning for Enhanced Zero-Shot Learning [48.46511584490582]
ゼロショット学習(ZSL)は、既知のカテゴリから未知のカテゴリへのセマンティックな知識伝達を活用することで、新しいクラスの認識を可能にする。
分布不均衡や属性共起といった現実世界の課題は、画像の局所的なばらつきの識別を妨げる。
これらの課題を克服するために、双方向のクロスモーダルZSLアプローチCRESTを提案する。
論文 参考訳(メタデータ) (2024-04-15T10:19:39Z) - Improving Explainability of Disentangled Representations using
Multipath-Attribution Mappings [12.145748796751619]
下流タスク予測に解釈不能な不整合表現を利用するフレームワークを提案する。
提案手法の有効性を,総合ベンチマークスイートと2つの医療データセットで実証する。
論文 参考訳(メタデータ) (2023-06-15T10:52:29Z) - DOAD: Decoupled One Stage Action Detection Network [77.14883592642782]
人々をローカライズし、ビデオからアクションを認識することは、ハイレベルなビデオ理解にとって難しい課題だ。
既存の手法は主に2段階ベースで、1段階は人物境界ボックス生成、もう1段階は行動認識を行う。
本稿では、時間的行動検出の効率を向上させるために、DOADと呼ばれる分離したワンステージネットワークを提案する。
論文 参考訳(メタデータ) (2023-04-01T08:06:43Z) - Learning Common Rationale to Improve Self-Supervised Representation for
Fine-Grained Visual Recognition Problems [61.11799513362704]
我々は、インスタンスやクラスでよく見られる差別的手がかりを識別するための、追加のスクリーニングメカニズムの学習を提案する。
SSL目標から誘導されるGradCAMを単純に利用することで、共通な有理性検出器が学習可能であることを示す。
論文 参考訳(メタデータ) (2023-03-03T02:07:40Z) - Semantic Novelty Detection via Relational Reasoning [17.660958043781154]
本稿では,関係推論に基づく表現学習パラダイムを提案する。
実験の結果,この知識は様々なシナリオに直接伝達可能であることがわかった。
クローズドセット認識モデルを信頼できるオープンセットに変換するプラグイン・アンド・プレイモジュールとして利用することができる。
論文 参考訳(メタデータ) (2022-07-18T15:49:27Z) - Cross-modal Clinical Graph Transformer for Ophthalmic Report Generation [116.87918100031153]
眼科報告生成(ORG)のためのクロスモーダルな臨床グラフ変換器(CGT)を提案する。
CGTは、デコード手順を駆動する事前知識として、臨床関係を視覚特徴に注入する。
大規模FFA-IRベンチマークの実験は、提案したCGTが従来のベンチマーク手法より優れていることを示した。
論文 参考訳(メタデータ) (2022-06-04T13:16:30Z) - Cross-modal Representation Learning for Zero-shot Action Recognition [67.57406812235767]
我々は、ゼロショット動作認識(ZSAR)のためのビデオデータとテキストラベルを共同で符号化するクロスモーダルトランスフォーマーベースのフレームワークを提案する。
我々のモデルは概念的に新しいパイプラインを使用し、視覚的表現と視覚的意味的関連をエンドツーエンドで学習する。
実験結果から,本モデルはZSARの芸術的状況に大きく改善され,UCF101,HMDB51,ActivityNetベンチマークデータセット上でトップ1の精度が向上した。
論文 参考訳(メタデータ) (2022-05-03T17:39:27Z) - Detecting of a Patient's Condition From Clinical Narratives Using
Natural Language Representation [0.3149883354098941]
本稿では,臨床自然言語表現学習と教師付き分類フレームワークを提案する。
この新しいフレームワークは、文脈的臨床物語入力から分布構文と潜在意味論(表現学習)を共同で発見する。
提案手法では, 精度, 再現性, 精度をそれぞれ89 %, 88 %, 89 %とした総合分類性能が得られる。
論文 参考訳(メタデータ) (2021-04-08T17:16:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。