論文の概要: Explainable AI in Orthopedics: Challenges, Opportunities, and Prospects
- arxiv url: http://arxiv.org/abs/2308.04696v1
- Date: Wed, 9 Aug 2023 04:15:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-10 15:11:23.544379
- Title: Explainable AI in Orthopedics: Challenges, Opportunities, and Prospects
- Title(参考訳): オルソペディックにおける説明可能なAI:挑戦、機会、展望
- Authors: Soheyla Amirian, Luke A. Carlson, Matthew F. Gong, Ines Lohse, Kurt R.
Weiss, Johannes F. Plate, and Ahmad P. Tafti
- Abstract要約: この研究は、XAIを整形外科に採用するための標準とガイドラインを確立するために、AI実践者、整形外科専門家、および規制機関間の学際的なコラボレーションの必要性を強調している。
- 参考スコア(独自算出の注目度): 0.5277024349608834
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While artificial intelligence (AI) has made many successful applications in
various domains, its adoption in healthcare lags a little bit behind other
high-stakes settings. Several factors contribute to this slower uptake,
including regulatory frameworks, patient privacy concerns, and data
heterogeneity. However, one significant challenge that impedes the
implementation of AI in healthcare, particularly in orthopedics, is the lack of
explainability and interpretability around AI models. Addressing the challenge
of explainable AI (XAI) in orthopedics requires developing AI models and
algorithms that prioritize transparency and interpretability, allowing
clinicians, surgeons, and patients to understand the contributing factors
behind any AI-powered predictive or descriptive models. The current
contribution outlines several key challenges and opportunities that manifest in
XAI in orthopedic practice. This work emphasizes the need for interdisciplinary
collaborations between AI practitioners, orthopedic specialists, and regulatory
entities to establish standards and guidelines for the adoption of XAI in
orthopedics.
- Abstract(参考訳): 人工知能(AI)は様々な分野で多くの成功を収めてきたが、医療分野での採用は、他の高度な設定に少し遅れている。
規制フレームワーク、患者のプライバシに関する懸念、データの多様性などだ。
しかし、医療、特に整形外科におけるAIの実装を妨げる重要な課題は、AIモデルに関する説明可能性と解釈性の欠如である。
整形外科における説明可能なAI(XAI)の課題に対処するには、透明性と解釈性を優先するAIモデルとアルゴリズムを開発する必要がある。
現在のコントリビューションは、整形外科の実践においてXAIに現れるいくつかの重要な課題と機会を概説している。
この研究は、XAIを整形外科に採用するための標準とガイドラインを確立するために、AI実践者、整形外科専門家、および規制機関間の学際的なコラボレーションの必要性を強調している。
関連論文リスト
- Framework for developing and evaluating ethical collaboration between expert and machine [4.304304889487245]
精密医療は、アクセス可能な疾患診断とパーソナライズされた介入計画のための有望なアプローチである。
人工知能(AI)を活用することで、精密医療は個々の患者に対する診断と治療ソリューションを調整する。
しかし、医療応用におけるAIの採用は重大な課題に直面している。
本稿では,専門家誘導型マルチモーダルAIの開発と倫理的評価を行う枠組みを提案する。
論文 参考訳(メタデータ) (2024-11-17T06:49:38Z) - Artificial intelligence techniques in inherited retinal diseases: A review [19.107474958408847]
遺伝性網膜疾患(英: InheritedRetinal disease、IRD)は、進行性視力低下を引き起こす多様な遺伝性疾患群であり、労働年齢層の視覚障害の主要な原因である。
人工知能(AI)の最近の進歩は、これらの課題に対する有望な解決策を提供する。
このレビューは既存の研究を統合し、ギャップを特定し、IRDの診断と管理におけるAIの可能性の概要を提供する。
論文 参考訳(メタデータ) (2024-10-10T03:14:51Z) - AI-Driven Healthcare: A Survey on Ensuring Fairness and Mitigating Bias [2.398440840890111]
AIアプリケーションは、診断精度、治療のパーソナライゼーション、患者の結果予測を大幅に改善した。
これらの進歩は、実質的な倫理的・公正性の課題ももたらした。
これらのバイアスは、医療提供の格差をもたらし、異なる人口集団の診断精度と治療結果に影響を与える可能性がある。
論文 参考訳(メタデータ) (2024-07-29T02:39:17Z) - A Survey of Artificial Intelligence in Gait-Based Neurodegenerative Disease Diagnosis [51.07114445705692]
神経変性疾患(神経変性疾患、ND)は、伝統的に医学的診断とモニタリングのために広範囲の医療資源と人的努力を必要とする。
重要な疾患関連運動症状として、ヒトの歩行を利用して異なるNDを特徴づけることができる。
人工知能(AI)モデルの現在の進歩は、NDの識別と分類のための自動歩行分析を可能にする。
論文 参考訳(メタデータ) (2024-05-21T06:44:40Z) - The Limits of Perception: Analyzing Inconsistencies in Saliency Maps in XAI [0.0]
説明可能な人工知能(XAI)は、AIの意思決定プロセスの解明に不可欠である。
ブラックボックス」として機能し、その理由が曖昧でアクセスできないため、誤診のリスクが高まる。
この透明性へのシフトは、単に有益であるだけでなく、医療におけるAI統合の責任を負うための重要なステップでもある。
論文 参考訳(メタデータ) (2024-03-23T02:15:23Z) - Testing autonomous vehicles and AI: perspectives and challenges from cybersecurity, transparency, robustness and fairness [53.91018508439669]
この研究は、人工知能を自律走行車(AV)に統合する複雑さを探求する
AIコンポーネントがもたらした課題と、テスト手順への影響を調べます。
本稿は、重要な課題を特定し、AV技術におけるAIの研究・開発に向けた今後の方向性を提案する。
論文 参考訳(メタデータ) (2024-02-21T08:29:42Z) - FUTURE-AI: International consensus guideline for trustworthy and deployable artificial intelligence in healthcare [73.78776682247187]
医療AIに関連する技術的、臨床的、倫理的、法的リスクに関する懸念が高まっている。
この研究は、Future-AIガイドラインを、医療における信頼できるAIツールの開発とデプロイを導くための最初の国際コンセンサスフレームワークとして説明している。
論文 参考訳(メタデータ) (2023-08-11T10:49:05Z) - A Brief Review of Explainable Artificial Intelligence in Healthcare [7.844015105790313]
XAIは、AIアプリケーションを構築するための技術と方法を指す。
モデル説明可能性と解釈可能性は、医療実践におけるAIモデルのデプロイを成功させる上で不可欠である。
論文 参考訳(メタデータ) (2023-04-04T05:41:57Z) - The Role of AI in Drug Discovery: Challenges, Opportunities, and
Strategies [97.5153823429076]
この分野でのAIのメリット、課題、欠点についてレビューする。
データ拡張、説明可能なAIの使用、従来の実験手法とAIの統合についても論じている。
論文 参考訳(メタデータ) (2022-12-08T23:23:39Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。