論文の概要: Unmasking Biases and Navigating Pitfalls in the Ophthalmic Artificial
Intelligence Lifecycle: A Review
- arxiv url: http://arxiv.org/abs/2310.04997v1
- Date: Sun, 8 Oct 2023 03:49:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2023-10-12 13:49:31.075762
- Title: Unmasking Biases and Navigating Pitfalls in the Ophthalmic Artificial
Intelligence Lifecycle: A Review
- Title(参考訳): 眼科人工知能ライフサイクルにおけるバイアスの顕在化と落とし穴 : レビュー
- Authors: Luis Filipe Nakayama, Jo\~ao Matos, Justin Quion, Frederico Novaes,
William Greig Mitchell, Rogers Mwavu, Ju-Yi Ji Hung, Alvina Pauline dy
Santiago, Warachaya Phanphruk, Jaime S. Cardoso, Leo Anthony Celi
- Abstract要約: この記事では、AIライフサイクルを7つのステップに分割する。
データ収集; モデルタスクの定義; データ前処理とラベル付け; モデル開発; モデル評価と検証; デプロイメント。
最後に、デプロイ後の評価、監視、システムリカレーションを行い、各ステップにおける害のリスクと、それらを緩和するための戦略を掘り下げます。
- 参考スコア(独自算出の注目度): 3.1929071422400446
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Over the past two decades, exponential growth in data availability,
computational power, and newly available modeling techniques has led to an
expansion in interest, investment, and research in Artificial Intelligence (AI)
applications. Ophthalmology is one of many fields that seek to benefit from AI
given the advent of telemedicine screening programs and the use of ancillary
imaging. However, before AI can be widely deployed, further work must be done
to avoid the pitfalls within the AI lifecycle. This review article breaks down
the AI lifecycle into seven steps: data collection; defining the model task;
data pre-processing and labeling; model development; model evaluation and
validation; deployment; and finally, post-deployment evaluation, monitoring,
and system recalibration and delves into the risks for harm at each step and
strategies for mitigating them.
- Abstract(参考訳): 過去20年間で、データ可用性、計算能力、新たに利用可能なモデリング技術が指数関数的に増加し、人工知能(AI)アプリケーションへの関心、投資、研究が拡大した。
眼科は、遠隔医療スクリーニングプログラムの出現と補助画像の使用を考えると、AIの恩恵を受ける多くの分野の1つである。
しかし、AIが広くデプロイされる前には、AIライフサイクル内の落とし穴を避けるために、さらなる作業が必要です。
この記事では、AIライフサイクルを、データ収集、モデルタスクの定義、データ前処理とラベリング、モデル開発、モデル評価とバリデーション、デプロイメント、最後に、デプロイ後の評価、監視、システムリカバリの7つのステップに分類し、各ステップにおける危害のリスクと軽減戦略について論じます。
関連論文リスト
- The Impact of Artificial Intelligence on Emergency Medicine: A Review of Recent Advances [0.2544903230401084]
人工知能(AI)は、診断プロセスを強化し、患者の結果を改善することで、救急医療に革命をもたらす。
機械学習とディープラーニングは、複雑な画像データの解釈において重要な要素であり、迅速で正確な診断を提供し、従来の診断方法を超える可能性がある。
これらの進歩にもかかわらず、AIを臨床実践に統合することは、データのプライバシ、アルゴリズムバイアス、さまざまな設定にまたがる広範な検証の必要性といった課題を提示している。
論文 参考訳(メタデータ) (2025-03-17T17:45:00Z) - Towards a perturbation-based explanation for medical AI as differentiable programs [0.0]
医学や医療では、AIモデルが生み出す結果の十分かつ客観的な説明可能性に対して、特に要求がある。
本研究では,入力に加わった小さな摂動に対するモデル応答を安定に測定する,ディープラーニングモデルのヤコビ行列の数値的可用性について検討する。
これは摂動に基づく説明への第一歩であり、臨床応用におけるAIモデルの反応を理解し解釈する医療実践者を支援する。
論文 参考訳(メタデータ) (2025-02-19T07:56:23Z) - AI-in-the-loop: The future of biomedical visual analytics applications in the era of AI [3.0942901747200975]
データ分析におけるAIの大規模開発は、将来のデータ視覚化とビジュアル分析をどう形成するか?
ますます強力なAIの文脈における機会、オープンな課題、脅威とは何か?
我々は、バイオメディカルビジュアライゼーションを研究分野として変革するAIの可能性を強調した。
論文 参考訳(メタデータ) (2024-12-20T13:27:24Z) - Generative AI in Health Economics and Outcomes Research: A Taxonomy of Key Definitions and Emerging Applications, an ISPOR Working Group Report [12.204470166456561]
ジェネレーティブAIは、健康経済学と成果研究(HEOR)において大きな可能性を秘めている
生成AIは、HEORに大きな可能性を示し、効率性、生産性を高め、複雑な課題に対する新しいソリューションを提供する。
ファウンデーションモデルは複雑なタスクを自動化する上で有望だが、科学的信頼性、バイアス、解釈可能性、ワークフローの統合には課題が残っている。
論文 参考訳(メタデータ) (2024-10-26T15:42:50Z) - Generative Diffusion-based Contract Design for Efficient AI Twins Migration in Vehicular Embodied AI Networks [55.15079732226397]
Embodied AIは、サイバースペースと物理空間のギャップを埋める、急速に進歩する分野だ。
VEANETでは、組み込まれたAIツインが車載AIアシスタントとして機能し、自律運転をサポートするさまざまなタスクを実行する。
論文 参考訳(メタデータ) (2024-10-02T02:20:42Z) - Application of Artificial Intelligence in Schizophrenia Rehabilitation Management: A Systematic Scoping Review [4.619934969700147]
統合失調症リハビリテーションにおける人工知能(AI)の現状と今後の展望を体系的に検討した。
我々は,AI関連データタイプ,特徴工学手法,アルゴリズムモデル,2012-2024年に公表された評価指標に関する61の研究をレビューした。
論文 参考訳(メタデータ) (2024-05-17T16:20:34Z) - Generative AI for Synthetic Data Generation: Methods, Challenges and the
Future [12.506811635026907]
大規模言語モデル(LLM)から合成データを生成する研究の最近の動向
本稿では,タスク固有トレーニングデータの生成にこれらの巨大なLCMを活用する高度な技術について述べる。
論文 参考訳(メタデータ) (2024-03-07T03:38:44Z) - Generative AI in Writing Research Papers: A New Type of Algorithmic Bias
and Uncertainty in Scholarly Work [0.38850145898707145]
大規模言語モデル(LLM)と生成AIツールは、バイアスを特定し、対処する上での課題を提示している。
生成型AIツールは、不正な一般化、幻覚、レッド・チーム・プロンプトのような敵攻撃を目標とする可能性がある。
研究原稿の執筆過程に生成AIを組み込むことで,新しいタイプの文脈依存型アルゴリズムバイアスがもたらされることがわかった。
論文 参考訳(メタデータ) (2023-12-04T04:05:04Z) - AI-Generated Images as Data Source: The Dawn of Synthetic Era [61.879821573066216]
生成AIは、現実世界の写真によく似た合成画像を作成する可能性を解き放った。
本稿では、これらのAI生成画像を新しいデータソースとして活用するという革新的な概念を探求する。
実際のデータとは対照的に、AI生成データには、未整合のアブリダンスやスケーラビリティなど、大きなメリットがある。
論文 参考訳(メタデータ) (2023-10-03T06:55:19Z) - A general-purpose AI assistant embedded in an open-source radiology
information system [0.0]
我々は,このプラットフォームの新規なHuman-AIパートナーシップ機能について述べる。
我々は、RIS内でアクティブな学習戦略を開発し、人間の放射線学者がAIアノテーションを有効/無効にし、AIアノテーションを「修正」/「延長」することができるようにした。
これにより、放射線技師のユーザと、ユーザ固有のAIモデルとのパートナーシップを確立することができる。
論文 参考訳(メタデータ) (2023-03-18T05:27:43Z) - Safe AI for health and beyond -- Monitoring to transform a health
service [51.8524501805308]
機械学習アルゴリズムの出力を監視するために必要なインフラストラクチャを評価する。
モデルのモニタリングと更新の例を示す2つのシナリオを提示します。
論文 参考訳(メタデータ) (2023-03-02T17:27:45Z) - The Role of AI in Drug Discovery: Challenges, Opportunities, and
Strategies [97.5153823429076]
この分野でのAIのメリット、課題、欠点についてレビューする。
データ拡張、説明可能なAIの使用、従来の実験手法とAIの統合についても論じている。
論文 参考訳(メタデータ) (2022-12-08T23:23:39Z) - Deep Active Learning for Computer Vision: Past and Future [50.19394935978135]
AIモデルの開発に欠かせない役割にもかかわらず、アクティブラーニングの研究は他の研究の方向性ほど集中的ではない。
データ自動化の課題に対処し、自動化された機械学習システムに対処することによって、アクティブな学習はAI技術の民主化を促進する。
論文 参考訳(メタデータ) (2022-11-27T13:07:14Z) - ProcTHOR: Large-Scale Embodied AI Using Procedural Generation [55.485985317538194]
ProcTHORは、Embodied AI環境の手続き的生成のためのフレームワークである。
ナビゲーション、アレンジメント、アーム操作のための6つの具体化されたAIベンチマークに対して、最先端の結果を実証する。
論文 参考訳(メタデータ) (2022-06-14T17:09:35Z) - Systematic Mapping Study on the Machine Learning Lifecycle [4.4090257489826845]
2005年から2020年にかけて出版された405の出版物は、5つの主要な研究トピック、31のサブトピックにマップされています。
少数の出版物がデータ管理とモデル生産の問題に焦点を合わせており、より多くの研究が全体論的観点からAIライフサイクルに対処すべきであると考えている。
論文 参考訳(メタデータ) (2021-03-11T11:44:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。