論文の概要: Can an Algorithm be My Healthcare Proxy?
- arxiv url: http://arxiv.org/abs/2001.09742v1
- Date: Tue, 7 Jan 2020 13:31:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-08 11:13:25.929417
- Title: Can an Algorithm be My Healthcare Proxy?
- Title(参考訳): アルゴリズムは私の医療プロキシになれるか?
- Authors: Duncan C McElfresh, Samuel Dooley, Yuan Cui, Kendra Griesman, Weiqin
Wang, Tyler Will, Neil Sehgal, John P Dickerson
- Abstract要約: 計画の欠如は、患者の幸福、家族の幸福、そして医療社会全体に大きな影響を与える可能性がある。
機械学習と人工知能の最新の技術は、現在のアドバンスケアプランニングプロセスにさらなる変更を加えるために使われる可能性がある。
- 参考スコア(独自算出の注目度): 23.821681526784786
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Planning for death is not a process in which everyone participates. Yet a
lack of planning can have vast impacts on a patient's well-being, the
well-being of her family, and the medical community as a whole. Advance Care
Planning (ACP) has been a field in the United States for a half-century. Many
modern techniques prompting patients to think about end of life (EOL) involve
short surveys or questionnaires. Different surveys are targeted to different
populations (based off of likely disease progression or cultural factors, for
instance), are designed with different intentions, and are administered in
different ways. There has been recent work using technology to increase the
number of people using advance care planning tools. However, modern techniques
from machine learning and artificial intelligence could be employed to make
additional changes to the current ACP process. In this paper we will discuss
some possible ways in which these tools could be applied. We will discuss
possible implications of these applications through vignettes of patient
scenarios. We hope that this paper will encourage thought about appropriate
applications of artificial intelligence in ACP as well as implementation of AI
in order to ensure intentions are honored.
- Abstract(参考訳): 死の計画は皆が参加するプロセスではない。
しかし、計画の欠如は、患者の幸福、家族の幸福、そして医療社会全体に大きな影響を与える可能性がある。
アドバンスト・ケア・プランニング (ACP) は、半世紀にわたってアメリカ合衆国で行われてきた分野である。
現代の多くの技術は、患者に人生の終わり(EOL)について考えるよう促す。
異なる調査は異なる集団(病気の進行や文化的要因などに基づくもの)を対象としており、異なる意図で設計され、異なる方法で管理されている。
近年,先行介護計画ツールの利用者数を増やすために技術を用いた研究が進められている。
しかし、機械学習と人工知能による現代的な技術は、現在のappプロセスにさらなる変化をもたらすことができる。
本稿では,これらのツールが適用できる可能性について考察する。
患者シナリオのvignettesを通じて,これらの応用の可能性について議論する。
本稿では,AIのACPにおける適切な応用と,意図の尊重を確実にするためにAIの実装について考えることを期待する。
関連論文リスト
- Unmasking Biases and Navigating Pitfalls in the Ophthalmic Artificial
Intelligence Lifecycle: A Review [3.1929071422400446]
この記事では、AIライフサイクルを7つのステップに分割する。
データ収集; モデルタスクの定義; データ前処理とラベル付け; モデル開発; モデル評価と検証; デプロイメント。
最後に、デプロイ後の評価、監視、システムリカレーションを行い、各ステップにおける害のリスクと、それらを緩和するための戦略を掘り下げます。
論文 参考訳(メタデータ) (2023-10-08T03:49:42Z) - PIKS: A Technique to Identify Actionable Trends for Policy-Makers
Through Open Healthcare Data [0.0]
公衆衛生における主な関心事は、トレンドの迅速な識別と分析、および外れ値の検出である。
本稿では,k-meansアルゴリズムとpruned searchlightベースのスキャンを組み合わせた,PIKSと呼ばれる効率的な外乱検出手法を提案する。
自殺率,免疫障害,社会的入院,心筋症,妊娠3年目には不妊症がみられた。
論文 参考訳(メタデータ) (2023-04-05T03:45:39Z) - The Role of AI in Drug Discovery: Challenges, Opportunities, and
Strategies [97.5153823429076]
この分野でのAIのメリット、課題、欠点についてレビューする。
データ拡張、説明可能なAIの使用、従来の実験手法とAIの統合についても論じている。
論文 参考訳(メタデータ) (2022-12-08T23:23:39Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - What Do End-Users Really Want? Investigation of Human-Centered XAI for
Mobile Health Apps [69.53730499849023]
説明可能なAI(XAI)を評価するために,ユーザ中心のペルソナ概念を提案する。
分析の結果,ユーザの人口統計や性格,説明のタイプ,影響説明の嗜好が示された。
私たちの洞察は、対話的で人間中心のXAIを実践的な応用に近づけます。
論文 参考訳(メタデータ) (2022-10-07T12:51:27Z) - Taking the Intentional Stance Seriously: A Guide to Progress in
Artificial Intelligence [0.0]
それぞれのユニークなツールの仕組みに関するメンタルモデルを構築しているのです。
本稿では,この主張を明確にする意図の命題的態度を精査する。
論文 参考訳(メタデータ) (2022-09-21T13:38:23Z) - Breaking Bad News in the Era of Artificial Intelligence and Algorithmic
Medicine: An Exploration of Disclosure and its Ethical Justification using
the Hedonic Calculus [0.0]
私たちは、AIの時代において、'Felicific Calculus'が時間的に準定量的な応用である可能性を示します。
この倫理的アルゴリズムは、AIが支援する行動が道徳的に正当化されるかどうかを、相互に排他的で徹底した7つの領域にわたって評価するためにどのように使用できるかを示す。
論文 参考訳(メタデータ) (2022-06-23T16:54:18Z) - Metaethical Perspectives on 'Benchmarking' AI Ethics [81.65697003067841]
ベンチマークは、人工知能(AI)研究の技術的進歩を測定するための基盤とみられている。
AIの顕著な研究領域は倫理であり、現在、ベンチマークのセットも、AIシステムの「倫理性」を測定する一般的な方法もない。
我々は、現在と将来のAIシステムのアクションを考えるとき、倫理よりも「価値」について話す方が理にかなっていると論じる。
論文 参考訳(メタデータ) (2022-04-11T14:36:39Z) - Comprehensive Multi-Agent Epistemic Planning [0.0]
この写本は、MEP(Multi-Adnt Epistemic Planning)として知られる特殊な計画に重点を置いている。
EPは、エージェントが知識/信任状態の空間で理由付けを行い、開始状態から望ましい状態に到達する計画を見つけようとする自動計画環境を指す。
その一般的な形であるMEP問題(英語版)は、世界の状態とエージェント間の情報の流れの両方を推論する必要がある複数のエージェントを含んでいる。
論文 参考訳(メタデータ) (2021-09-17T01:50:18Z) - Indecision Modeling [50.00689136829134]
AIシステムは人間の価値観に合わせて行動することが重要である。
人々はしばしば決定的ではなく、特に彼らの決定が道徳的な意味を持つときです。
論文 参考訳(メタデータ) (2020-12-15T18:32:37Z) - A Case for Humans-in-the-Loop: Decisions in the Presence of Erroneous
Algorithmic Scores [85.12096045419686]
本研究では,児童虐待のホットラインスクリーニング決定を支援するアルゴリズムツールの採用について検討した。
まず、ツールがデプロイされたときに人間が行動を変えることを示します。
表示されたスコアが誤ったリスク推定である場合、人間はマシンの推奨に従わない可能性が低いことを示す。
論文 参考訳(メタデータ) (2020-02-19T07:27:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。