論文の概要: A Human-Centered Approach to Identifying Promises, Risks, & Challenges of Text-to-Image Generative AI in Radiology
- arxiv url: http://arxiv.org/abs/2507.16207v1
- Date: Tue, 22 Jul 2025 03:53:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-23 21:34:13.955942
- Title: A Human-Centered Approach to Identifying Promises, Risks, & Challenges of Text-to-Image Generative AI in Radiology
- Title(参考訳): 放射線学におけるテキスト・画像生成AIの約束・リスク・課題の特定のための人間中心的アプローチ
- Authors: Katelyn Morrison, Arpit Mathur, Aidan Bradshaw, Tom Wartmann, Steven Lundi, Afrooz Zandifar, Weichang Dai, Kayhan Batmanghelich, Motahhare Eslami, Adam Perer,
- Abstract要約: 私たちは、責任あるモデル開発に対する人間中心のアプローチを開発します。
我々は,医学生,放射線学研修生,放射線技師の立場から,テキスト・トゥ・CTスキャン・ジェネシスが医学教育,訓練,実践において果たす役割を明らかにする。
- 参考スコア(独自算出の注目度): 12.94005717149978
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: As text-to-image generative models rapidly improve, AI researchers are making significant advances in developing domain-specific models capable of generating complex medical imagery from text prompts. Despite this, these technical advancements have overlooked whether and how medical professionals would benefit from and use text-to-image generative AI (GenAI) in practice. By developing domain-specific GenAI without involving stakeholders, we risk the potential of building models that are either not useful or even more harmful than helpful. In this paper, we adopt a human-centered approach to responsible model development by involving stakeholders in evaluating and reflecting on the promises, risks, and challenges of a novel text-to-CT Scan GenAI model. Through exploratory model prompting activities, we uncover the perspectives of medical students, radiology trainees, and radiologists on the role that text-to-CT Scan GenAI can play across medical education, training, and practice. This human-centered approach additionally enabled us to surface technical challenges and domain-specific risks of generating synthetic medical images. We conclude by reflecting on the implications of medical text-to-image GenAI.
- Abstract(参考訳): テキストから画像への生成モデルが急速に向上するにつれて、AI研究者はテキストプロンプトから複雑な医療画像を生成することができるドメイン固有モデルの開発において大きな進歩を遂げている。
それにもかかわらず、これらの技術的進歩は、医療専門家が実際にテキストから画像へ生成するAI(GenAI)の恩恵を受けるかどうか、そしてどのように使うかを見落としてきた。
利害関係者を巻き込まずにドメイン固有のGenAIを開発することで、役に立たないモデルを構築する可能性や、役に立たないモデルを構築するリスクを冒します。
本稿では,新しいテキスト・ツー・CT Scan GenAIモデルの約束,リスク,課題をステークホルダーが評価・反映することで,責任モデル開発に人間中心のアプローチを採用する。
調査モデルにより,医学生,放射線学研修生,放射線技師の立場を明らかにするとともに,医学教育,研修,実践を通じて,テキスト・トゥ・CT Scan GenAIが果たす役割を明らかにする。
この人間中心のアプローチにより、私たちは、合成医用画像の生成に関する技術的課題とドメイン固有のリスクを明らかにすることが可能になった。
我々は医療用テキストから画像へのGenAIの意義を考察して結論づける。
関連論文リスト
- Retrieval Augmented Generation and Understanding in Vision: A Survey and New Outlook [85.43403500874889]
Retrieval-augmented Generation (RAG) は人工知能(AI)において重要な技術である。
具体化されたAIのためのRAGの最近の進歩は、特に計画、タスク実行、マルチモーダル知覚、インタラクション、特殊ドメインの応用に焦点を当てている。
論文 参考訳(メタデータ) (2025-03-23T10:33:28Z) - Computational Safety for Generative AI: A Signal Processing Perspective [65.268245109828]
計算安全性は、GenAIにおける安全性の定量的評価、定式化、研究を可能にする数学的枠組みである。
ジェイルブレイクによる悪意のあるプロンプトを検出するために, 感度解析と損失景観解析がいかに有効かを示す。
我々は、AIの安全性における信号処理の鍵となる研究課題、機会、そして重要な役割について論じる。
論文 参考訳(メタデータ) (2025-02-18T02:26:50Z) - Exploring AI Text Generation, Retrieval-Augmented Generation, and Detection Technologies: a Comprehensive Overview [0.0]
独創性、偏見、誤情報、説明責任などの問題を含む、AI生成コンテンツを取り巻く懸念が顕在化している。
本稿では、AIテキストジェネレータ(AITG)の進化、能力、倫理的意味を概観する。
本稿では,検出精度の向上,倫理的AI開発支援,アクセシビリティ向上に向けた今後の方向性について検討する。
論文 参考訳(メタデータ) (2024-12-05T07:23:14Z) - SoK: Watermarking for AI-Generated Content [112.9218881276487]
ウォーターマーキングスキームは、AI生成コンテンツに隠された信号を埋め込んで、信頼性の高い検出を可能にする。
透かしは、誤情報や偽造と戦ってAIの安全性と信頼性を高める上で重要な役割を果たす。
本研究の目的は、研究者が透かし法や応用の進歩を指導し、GenAIの幅広い意味に対処する政策立案者を支援することである。
論文 参考訳(メタデータ) (2024-11-27T16:22:33Z) - Explainable Artificial Intelligence for Medical Applications: A Review [42.33274794442013]
本稿では、説明可能な人工知能(XAI)に関する最近の研究をレビューする。
視覚、オーディオ、マルチモーダルの観点からの医療実践に焦点を当てている。
我々は、将来の研究者や医療専門家に支援とガイダンスを提供することを目的として、これらのプラクティスを分類し、合成することに努めます。
論文 参考訳(メタデータ) (2024-11-15T11:31:06Z) - Generative Artificial Intelligence Meets Synthetic Aperture Radar: A Survey [49.29751866761522]
本稿では,GenAIとSARの交差点について検討する。
まず、SAR分野における一般的なデータ生成ベースのアプリケーションについて説明する。
次に、最新のGenAIモデルの概要を体系的にレビューする。
最後に、SARドメインの対応するアプリケーションも含まれる。
論文 参考訳(メタデータ) (2024-11-05T03:06:00Z) - Generative artificial intelligence in dentistry: Current approaches and future challenges [0.0]
生成AI(GenAI)モデルは、複雑なモデルと対話する自然言語インターフェースを提供することによって、AIのユーザビリティギャップを橋渡しする。
歯科教育では、GenAIモデルのみを推進し、多くの疑問を解決できる機会を得た。
GenAIは、新しい薬物発見から学術論文の補助まで、歯科医学研究にも利用することができる。
論文 参考訳(メタデータ) (2024-07-24T03:33:47Z) - Generative Artificial Intelligence: A Systematic Review and Applications [7.729155237285151]
本稿では、ジェネレーティブAIにおける最近の進歩と技術に関する体系的なレビューと分析について述べる。
生成AIがこれまで行った大きな影響は、大きな言語モデルの開発による言語生成である。
論文は、責任あるAIの原則と、これらの生成モデルの持続可能性と成長に必要な倫理的考察から締めくくられる。
論文 参考訳(メタデータ) (2024-05-17T18:03:59Z) - Practical Applications of Advanced Cloud Services and Generative AI Systems in Medical Image Analysis [17.4235794108467]
本稿では、医用画像における生成AIの変換可能性について考察し、合成ACM-2データを生成する能力を強調した。
データセットのサイズと多様性の制限に対処することにより、これらのモデルはより正確な診断と患者の結果の改善に寄与する。
論文 参考訳(メタデータ) (2024-03-26T09:55:49Z) - MITS-GAN: Safeguarding Medical Imaging from Tampering with Generative Adversarial Networks [48.686454485328895]
本研究では,医療画像の改ざんを防止する新しいアプローチであるMITS-GANを紹介する。
このアプローチは、人間の目には知覚できない微調整された摂動を導入することで、攻撃者のCT-GANアーキテクチャの出力を妨害する。
CTスキャンによる実験結果から,MITS-GANの優れた性能が確認された。
論文 参考訳(メタデータ) (2024-01-17T22:30:41Z) - DeepfakeArt Challenge: A Benchmark Dataset for Generative AI Art Forgery and Data Poisoning Detection [57.51313366337142]
悪意ある目的のために生成的AIを使用することについて懸念が高まっている。
生成AIを用いた視覚コンテンツ合成の領域では、画像偽造とデータ中毒が重要な関心事となっている。
DeepfakeArt Challenge(ディープフェイクアートチャレンジ)は、AIアートのジェネレーションとデータ中毒検出のための機械学習アルゴリズムの構築を支援するために設計された、大規模なチャレンジベンチマークデータセットである。
論文 参考訳(メタデータ) (2023-06-02T05:11:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。