論文の概要: Towards Trustworthy Artificial Intelligence for Equitable Global Health
- arxiv url: http://arxiv.org/abs/2309.05088v1
- Date: Sun, 10 Sep 2023 17:22:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-12 14:36:29.895883
- Title: Towards Trustworthy Artificial Intelligence for Equitable Global Health
- Title(参考訳): グローバルヘルスのための信頼できる人工知能を目指して
- Authors: Hong Qin, Jude Kong, Wandi Ding, Ramneek Ahluwalia, Christo El Morr,
Zeynep Engin, Jake Okechukwu Effoduh, Rebecca Hwa, Serena Jingchuan Guo,
Laleh Seyyed-Kalantari, Sylvia Kiwuwa Muyingo, Candace Makeda Moore, Ravi
Parikh, Reva Schwartz, Dongxiao Zhu, Xiaoqian Wang, Yiye Zhang
- Abstract要約: AIは世界の健康を変革する可能性があるが、アルゴリズムバイアスは社会的不平等と格差を悪化させる可能性がある。
FairMI4GHは対話を刺激し、知識伝達を促進し、革新的なソリューションを創り出すことを目的としていた。
研究設計段階からデータバイアスを緩和し、人間中心のアプローチを採用し、AI透明性を提唱する必要性が認識された。
- 参考スコア(独自算出の注目度): 22.262855329743985
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Artificial intelligence (AI) can potentially transform global health, but
algorithmic bias can exacerbate social inequities and disparity. Trustworthy AI
entails the intentional design to ensure equity and mitigate potential biases.
To advance trustworthy AI in global health, we convened a workshop on Fairness
in Machine Intelligence for Global Health (FairMI4GH). The event brought
together a global mix of experts from various disciplines, community health
practitioners, policymakers, and more. Topics covered included managing AI bias
in socio-technical systems, AI's potential impacts on global health, and
balancing data privacy with transparency. Panel discussions examined the
cultural, political, and ethical dimensions of AI in global health. FairMI4GH
aimed to stimulate dialogue, facilitate knowledge transfer, and spark
innovative solutions. Drawing from NIST's AI Risk Management Framework, it
provided suggestions for handling AI risks and biases. The need to mitigate
data biases from the research design stage, adopt a human-centered approach,
and advocate for AI transparency was recognized. Challenges such as updating
legal frameworks, managing cross-border data sharing, and motivating developers
to reduce bias were acknowledged. The event emphasized the necessity of diverse
viewpoints and multi-dimensional dialogue for creating a fair and ethical AI
framework for equitable global health.
- Abstract(参考訳): 人工知能(AI)は世界的な健康を変革する可能性があるが、アルゴリズムバイアスは社会的不平等と格差を悪化させる可能性がある。
信頼できるAIは、株式の確保と潜在的なバイアスを軽減するために意図的な設計を必要とする。
グローバルヘルスにおいて信頼できるAIを促進するために、私たちはFairMI4GH(Machine Intelligence for Global Health)というワークショップを開催しました。
このイベントでは、さまざまな分野、コミュニティヘルス実践者、政策立案者などの専門家が世界中に集結した。
トピックは、社会技術システムにおけるAIバイアスの管理、AIのグローバルヘルスへの影響の可能性、データのプライバシと透明性のバランスなどだ。
パネルディスカッションでは、世界保健におけるAIの文化的、政治的、倫理的側面について検討した。
FairMI4GHは対話を刺激し、知識伝達を促進し、革新的なソリューションを創り出した。
NISTのAI Risk Management Frameworkを引き合いに出し、AIのリスクとバイアスを扱うための提案を提供した。
研究設計段階からデータバイアスを緩和し、人間中心のアプローチを採用し、AI透明性を提唱する必要性が認識された。
法的フレームワークの更新、国境を越えたデータ共有の管理、開発者のバイアス軽減への動機付けといった課題が認められた。
このイベントは、公平なグローバルヘルスのための公正で倫理的なAIフレームワークを作成するために、多様な視点と多次元対話の必要性を強調した。
関連論文リスト
- Trustworthy and Responsible AI for Human-Centric Autonomous Decision-Making Systems [2.444630714797783]
我々は、AIバイアス、定義、検出と緩和の方法、およびバイアスを評価するメトリクスの複雑さをレビューし、議論する。
また、人間中心の意思決定のさまざまな領域におけるAIの信頼性と広範な適用に関して、オープンな課題についても論じる。
論文 参考訳(メタデータ) (2024-08-28T06:04:25Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Ethical Framework for Harnessing the Power of AI in Healthcare and
Beyond [0.0]
この総合的な研究論文は、AI技術の急速な進化と密接に関連する倫理的次元を厳格に調査する。
この記事の中心は、透明性、エクイティ、回答可能性、人間中心の指向といった価値を、慎重に強調するために作られた、良心的なAIフレームワークの提案である。
この記事は、グローバルに標準化されたAI倫理の原則とフレームワークに対するプレッシャーの必要性を明確に強調している。
論文 参考訳(メタデータ) (2023-08-31T18:12:12Z) - FUTURE-AI: International consensus guideline for trustworthy and deployable artificial intelligence in healthcare [73.78776682247187]
医療AIに関連する技術的、臨床的、倫理的、法的リスクに関する懸念が高まっている。
この研究は、Future-AIガイドラインを、医療における信頼できるAIツールの開発とデプロイを導くための最初の国際コンセンサスフレームワークとして説明している。
論文 参考訳(メタデータ) (2023-08-11T10:49:05Z) - Ensuring Trustworthy Medical Artificial Intelligence through Ethical and
Philosophical Principles [4.705984758887425]
AIベースのコンピュータ支援診断と治療ツールは、臨床レベルを合わせるか、あるいは臨床専門家を上回ることで、医療を民主化することができる。
このようなAIツールの民主化は、ケアコストを削減し、リソース割り当てを最適化し、ケアの質を向上させる。
AIをヘルスケアに統合することは、バイアス、透明性、自律性、責任、説明責任など、いくつかの倫理的および哲学的な懸念を提起する。
論文 参考訳(メタデータ) (2023-04-23T04:14:18Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - FATE in AI: Towards Algorithmic Inclusivity and Accessibility [0.0]
AIにおけるアルゴリズム上の格差、公平性、説明責任、透明性、倫理(FATE)が実装されている。
本研究では、AIによって守られている世界南部地域のFATE関連デシダータ、特に透明性と倫理について検討する。
インクリシティを促進するために、コミュニティ主導の戦略が提案され、責任あるAI設計のための代表データを収集し、キュレートする。
論文 参考訳(メタデータ) (2023-01-03T15:08:10Z) - It is not "accuracy vs. explainability" -- we need both for trustworthy
AI systems [0.0]
私たちは、AI技術が医療、ビジネス、交通、日常生活の多くの側面に影響を与えつつある、AI経済と社会の出現を目撃しています。
しかし、AIシステムはエラーを発生させ、バイアスを示し、データのノイズに敏感になり、しばしば技術的および司法的透明性が欠如し、その採用における信頼と課題が減少する可能性がある。
これらの最近の欠点や懸念は、科学的に記録されているだけでなく、自動運転車による事故、医療の偏見、有色人種のための雇用と顔認識システムなど、一般的な報道でも報告されている。
論文 参考訳(メタデータ) (2022-12-16T23:33:10Z) - The Role of AI in Drug Discovery: Challenges, Opportunities, and
Strategies [97.5153823429076]
この分野でのAIのメリット、課題、欠点についてレビューする。
データ拡張、説明可能なAIの使用、従来の実験手法とAIの統合についても論じている。
論文 参考訳(メタデータ) (2022-12-08T23:23:39Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。