論文の概要: Envisioning Possibilities and Challenges of AI for Personalized Cancer Care
- arxiv url: http://arxiv.org/abs/2408.10108v1
- Date: Mon, 19 Aug 2024 15:55:46 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-20 15:43:09.823332
- Title: Envisioning Possibilities and Challenges of AI for Personalized Cancer Care
- Title(参考訳): パーソナライズド癌ケアにおけるAIの可能性と課題
- Authors: Elaine Kong, Kuo-Ting, Huang, Aakash Gautam,
- Abstract要約: パーソナライズされたケアの欠如や、不十分な文化的・言語的な宿泊施設など、現在の医療システムにおける重要なギャップを特定する。
AIは、ケアに適用されると、リアルタイム、文化的に整合し、言語的に適切な相互作用を可能にすることで、これらの問題に対処する方法と見なされた。
また、データプライバシ、介護におけるヒューマンタッチの喪失、多様な情報への露出を制限するエコーチャンバーのリスクなど、AI駆動のパーソナライゼーションがもたらす影響に関する懸念も明らかになった。
- 参考スコア(独自算出の注目度): 36.53434633571359
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The use of Artificial Intelligence (AI) in healthcare, including in caring for cancer survivors, has gained significant interest. However, gaps remain in our understanding of how such AI systems can provide care, especially for ethnic and racial minority groups who continue to face care disparities. Through interviews with six cancer survivors, we identify critical gaps in current healthcare systems such as a lack of personalized care and insufficient cultural and linguistic accommodation. AI, when applied to care, was seen as a way to address these issues by enabling real-time, culturally aligned, and linguistically appropriate interactions. We also uncovered concerns about the implications of AI-driven personalization, such as data privacy, loss of human touch in caregiving, and the risk of echo chambers that limit exposure to diverse information. We conclude by discussing the trade-offs between AI-enhanced personalization and the need for structural changes in healthcare that go beyond technological solutions, leading us to argue that we should begin by asking, ``Why personalization?''
- Abstract(参考訳): がん患者のケアを含む医療における人工知能(AI)の使用は、大きな関心を集めている。
しかし、このようなAIシステムがいかにケアを提供するか、特にケア格差に直面し続けている民族や人種の少数派に対して、私たちの理解にギャップは残っています。
6人のがん患者へのインタビューを通じて、パーソナライズされたケアの欠如や、文化的・言語的な宿泊施設の不足など、現在の医療システムにおける重要なギャップを特定する。
AIは、ケアに適用されると、リアルタイム、文化的に整合し、言語的に適切な相互作用を可能にすることで、これらの問題に対処する方法と見なされた。
また、データプライバシ、介護におけるヒューマンタッチの喪失、多様な情報への露出を制限するエコーチャンバーのリスクなど、AI駆動のパーソナライゼーションがもたらす影響に関する懸念も明らかにしました。
我々は、AIに強化されたパーソナライゼーションと、技術的ソリューションを超えた医療の構造的変化の必要性のトレードオフを議論することで、"なぜパーソナライゼーションを行うのか?
関連論文リスト
- Towards Clinical AI Fairness: Filling Gaps in the Puzzle [15.543248260582217]
このレビューでは、医療データと提供されたAIフェアネスソリューションの両方に関して、いくつかの欠陥を体系的に指摘する。
AI技術がますます活用されている多くの医療分野において、AIフェアネスの研究の欠如を強調している。
これらのギャップを埋めるために、我々のレビューは医療研究コミュニティとAI研究コミュニティの両方にとって実行可能な戦略を前進させます。
論文 参考訳(メタデータ) (2024-05-28T07:42:55Z) - Emotional Intelligence Through Artificial Intelligence : NLP and Deep Learning in the Analysis of Healthcare Texts [1.9374282535132377]
本論文は,医療関連テキストにおける感情評価における人工知能の利用に関する方法論的考察である。
我々は、感情分析を強化し、感情を分類し、患者の結果を予測するためにAIを利用する多くの研究を精査する。
AIの倫理的応用を保証すること、患者の機密性を保護すること、アルゴリズムの手続きにおける潜在的なバイアスに対処することを含む、継続的な課題がある。
論文 参考訳(メタデータ) (2024-03-14T15:58:13Z) - Ensuring Trustworthy Medical Artificial Intelligence through Ethical and
Philosophical Principles [4.705984758887425]
AIベースのコンピュータ支援診断と治療ツールは、臨床レベルを合わせるか、あるいは臨床専門家を上回ることで、医療を民主化することができる。
このようなAIツールの民主化は、ケアコストを削減し、リソース割り当てを最適化し、ケアの質を向上させる。
AIをヘルスケアに統合することは、バイアス、透明性、自律性、責任、説明責任など、いくつかの倫理的および哲学的な懸念を提起する。
論文 参考訳(メタデータ) (2023-04-23T04:14:18Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - The Role of AI in Drug Discovery: Challenges, Opportunities, and
Strategies [97.5153823429076]
この分野でのAIのメリット、課題、欠点についてレビューする。
データ拡張、説明可能なAIの使用、従来の実験手法とAIの統合についても論じている。
論文 参考訳(メタデータ) (2022-12-08T23:23:39Z) - Holding AI to Account: Challenges for the Delivery of Trustworthy AI in
Healthcare [8.351355707564153]
我々は、信頼できるAIの問題を検証し、これを実現することが実際に何を意味するのかを探る。
ここでは、人々が社会技術的設定においてAIを推論し、信頼する方法において、組織的説明責任が果たす重要な部分を見落としている、と論じる。
論文 参考訳(メタデータ) (2022-11-29T18:22:23Z) - Investigating the Potential of Artificial Intelligence Powered
Interfaces to Support Different Types of Memory for People with Dementia [22.89233407347665]
もっとも難しい課題の1つは、認知症の患者のアクセシビリティの変動をサポートすることである。
我々は,認知症に関連する異なる種類のメモリのインタフェースをパーソナライズするためのAIベースのシステム設計の今後の方向性を示す。
論文 参考訳(メタデータ) (2022-11-19T17:31:45Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - What Do End-Users Really Want? Investigation of Human-Centered XAI for
Mobile Health Apps [69.53730499849023]
説明可能なAI(XAI)を評価するために,ユーザ中心のペルソナ概念を提案する。
分析の結果,ユーザの人口統計や性格,説明のタイプ,影響説明の嗜好が示された。
私たちの洞察は、対話的で人間中心のXAIを実践的な応用に近づけます。
論文 参考訳(メタデータ) (2022-10-07T12:51:27Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。