論文の概要: Towards an AI Coach to Infer Team Mental Model Alignment in Healthcare
- arxiv url: http://arxiv.org/abs/2102.08507v1
- Date: Wed, 17 Feb 2021 00:14:08 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-18 14:44:37.436233
- Title: Towards an AI Coach to Infer Team Mental Model Alignment in Healthcare
- Title(参考訳): ヘルスケアにおけるチームのメンタルモデルアライメントを推論するAIコーチ
- Authors: Sangwon Seo, Lauren R. Kennedy-Metz, Marco A. Zenati, Julie A. Shah,
Roger D. Dias, Vaibhav V. Unhelkar
- Abstract要約: 安全クリティカルドメインでは、共有メンタルモデルの欠如は、予防可能なエラーと害につながる可能性があります。
我々は、複雑な医療タスクの実行中にチームメンバーのメンタルモデルにおける不整合を推論するベイジアンアプローチを提示する。
- 参考スコア(独自算出の注目度): 18.712152010097878
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Shared mental models are critical to team success; however, in practice, team
members may have misaligned models due to a variety of factors. In
safety-critical domains (e.g., aviation, healthcare), lack of shared mental
models can lead to preventable errors and harm. Towards the goal of mitigating
such preventable errors, here, we present a Bayesian approach to infer
misalignment in team members' mental models during complex healthcare task
execution. As an exemplary application, we demonstrate our approach using two
simulated team-based scenarios, derived from actual teamwork in cardiac
surgery. In these simulated experiments, our approach inferred model
misalignment with over 75% recall, thereby providing a building block for
enabling computer-assisted interventions to augment human cognition in the
operating room and improve teamwork.
- Abstract(参考訳): 共有メンタルモデルはチームの成功に不可欠です。しかし、実際には、チームメンバーはさまざまな要因のためにモデルが不整合している可能性があります。
安全クリティカルな領域(航空、医療など)では、共有精神モデルの欠如は予防可能なエラーと害につながる可能性がある。
このような予防可能なエラーを緩和する目的に向けて,我々は,複雑な医療タスク実行中のチームメンバーのメンタルモデルの誤用を推測するベイズ的アプローチを提案する。
例示のアプリケーションとして、我々は2つのシミュレーションチームベースのシナリオを用いて、心臓外科における実際のチームワークから得られたアプローチを実証する。
これらのシミュレーション実験では,75%以上のリコールによるモデル誤認を推定し,手術室における人間認知の増強とチームワークの改善のためのコンピュータ支援介入を可能にするビルディングブロックを提供した。
関連論文リスト
- MentalArena: Self-play Training of Language Models for Diagnosis and Treatment of Mental Health Disorders [59.515827458631975]
メンタルヘルス障害は世界で最も深刻な病気の1つである。
プライバシーに関する懸念は、パーソナライズされた治療データのアクセシビリティを制限する。
MentalArenaは、言語モデルをトレーニングするためのセルフプレイフレームワークである。
論文 参考訳(メタデータ) (2024-10-09T13:06:40Z) - ProAgent: Building Proactive Cooperative Agents with Large Language
Models [89.53040828210945]
ProAgentは、大規模な言語モデルを利用してプロアクティブエージェントを生成する新しいフレームワークである。
ProAgentは現状を分析し、チームメイトの意図を観察から推測することができる。
ProAgentは高度なモジュール化と解釈可能性を示し、様々な調整シナリオに容易に統合できる。
論文 参考訳(メタデータ) (2023-08-22T10:36:56Z) - Decentralized Adversarial Training over Graphs [55.28669771020857]
機械学習モデルの敵攻撃に対する脆弱性は、近年、かなりの注目を集めている。
この研究は、個々のエージェントが様々な強度摂動空間に従属するグラフ上の敵の訓練を研究する。
論文 参考訳(メタデータ) (2023-03-23T15:05:16Z) - Automated Task-Time Interventions to Improve Teamwork using Imitation
Learning [5.423490734916741]
私たちは、チームメンバー間の調整を改善するための自動化された介入アプローチTICを提示します。
我々はまず、過去のタスク実行データからチームの振る舞いの生成モデルを学ぶ。
次に、学習した生成モデルとチームのタスク目標(共有報酬)を使用して、実行時の介入をアルゴリズム的に生成する。
論文 参考訳(メタデータ) (2023-03-01T11:09:06Z) - Stress Propagation in Human-Robot Teams Based on Computational Logic
Model [1.6344851071810071]
ミッションチームは、人生と死の決定の感情的な犠牲にさらされます。
我々は、人間と自律機械のチームにおけるストレスモニタリングのための複合モデルを開発した。
論文 参考訳(メタデータ) (2022-11-08T07:31:21Z) - Neural Payoff Machines: Predicting Fair and Stable Payoff Allocations
Among Team Members [13.643650155415484]
ニューラルネットワークをトレーニングすることで,協調的なゲーム理論解を学習モデルに蒸留する方法を示す。
我々の手法はトレーニング分布から遠く離れたゲームに一般化できるモデルを作成する。
私たちのフレームワークの重要な応用は、説明可能なAIです。
論文 参考訳(メタデータ) (2022-08-18T12:33:09Z) - ML-Doctor: Holistic Risk Assessment of Inference Attacks Against Machine
Learning Models [64.03398193325572]
機械学習(ML)モデルに対する推論攻撃により、敵はトレーニングデータやモデルパラメータなどを学ぶことができる。
私たちは、メンバシップ推論、モデル反転、属性推論、モデル盗難の4つの攻撃に集中しています。
私たちの分析では、MLモデルオーナがモデルをデプロイするリスクを評価することができる、モジュール化された再使用可能なソフトウェアであるML-Doctorに依存しています。
論文 参考訳(メタデータ) (2021-02-04T11:35:13Z) - Adversarial Example Games [51.92698856933169]
Adrial Example Games (AEG) は、敵の例の製作をモデル化するフレームワークである。
AEGは、ある仮説クラスからジェネレータとアバーサを反対に訓練することで、敵の例を設計する新しい方法を提供する。
MNIST と CIFAR-10 データセットに対する AEG の有効性を示す。
論文 参考訳(メタデータ) (2020-07-01T19:47:23Z) - Towards Open Ad Hoc Teamwork Using Graph-based Policy Learning [11.480994804659908]
我々は、さまざまなチーム構成の下でエージェントモデルと共同アクション値モデルを学ぶために、グラフニューラルネットワーク上に構築する。
私たちは、我々のアプローチが、他のエージェントが学習者に与える影響をうまくモデル化し、動的なチーム構成にしっかりと適応するポリシーを導いたことを実証的に実証します。
論文 参考訳(メタデータ) (2020-06-18T10:39:41Z) - Single-step Adversarial training with Dropout Scheduling [59.50324605982158]
単段階逆行訓練法を用いて学習したモデルは、単段階逆行の発生を防止するために学習する。
提案手法を用いて訓練されたモデルは, 単段階攻撃と多段階攻撃の両方に対して堅牢である。
論文 参考訳(メタデータ) (2020-04-18T14:14:00Z) - A non-cooperative meta-modeling game for automated third-party
calibrating, validating, and falsifying constitutive laws with parallelized
adversarial attacks [6.113400683524824]
特に高リスク・高レグリート工学的応用におけるモデルの評価には、効率的で厳格な第三者の校正、検証、ファルシフィケーションが必要である。
本研究は,ゲーム理論と機械学習技術の概念を導入し,これらの課題の多くを克服しようとするものである。
2つの競合するAIエージェントが実験データを生成し、与えられたモデルを校正し、その弱点を探り、競争を通じて実験設計を改善し、堅牢性をモデル化する自動メタモデリングゲームを導入する。
論文 参考訳(メタデータ) (2020-04-13T18:43:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。