論文の概要: A Comparison Between Human and Generative AI Decision-Making Attributes in Complex Health Services
- arxiv url: http://arxiv.org/abs/2505.08360v1
- Date: Tue, 13 May 2025 09:08:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-14 20:57:54.493741
- Title: A Comparison Between Human and Generative AI Decision-Making Attributes in Complex Health Services
- Title(参考訳): 複雑な医療サービスにおける人間と生成的AI意思決定属性の比較
- Authors: Nandini Doreswamy, Louise Horstmanshof,
- Abstract要約: 目的は、人間が複雑な医療サービスにおける最適な意思決定に寄与する、ユニークで/または有用な属性を持っているかどうかを検討することである。
意味のある意思決定の役割を維持するために、人間は、人間と生成AIのコントリビューションを統合した意思決定システムによって、独自の属性を開発することができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A comparison between human and Generative AI decision-making attributes in complex health services is a knowledge gap in the literature, at present. Humans may possess unique attributes beneficial to decision-making in complex health services such as health policy and health regulation, but are also susceptible to decision-making flaws. The objective is to explore whether humans have unique, and/or helpful attributes that contribute to optimal decision-making in complex health services. This comparison may also shed light on whether humans are likely to compete, cooperate, or converge with Generative AI. The comparison is based on two published reviews: a scoping review of human attributes [1] and a rapid review of Generative AI attributes [2]. The analysis categorizes attributes by uniqueness and impact. The results are presented in tabular form, comparing the sets and subsets of human and Generative AI attributes. Humans and Generative AI decision-making attributes have complementary strengths. Cooperation between these two entities seems more likely than pure competition. To maintain meaningful decision-making roles, humans could develop their unique attributes, with decision-making systems integrating both human and Generative AI contributions. These entities may also converge, in future.
- Abstract(参考訳): 複雑な医療サービスにおける人間と生成的AIの意思決定特性の比較は、現在、文献における知識ギャップである。
人間は、健康政策や健康規制のような複雑な健康サービスにおいて意思決定に有益な特質を持っているが、意思決定の欠陥にも影響される。
目的は、人間が複雑な医療サービスにおける最適な意思決定に寄与する、ユニークで/または有用な属性を持っているかどうかを検討することである。
この比較は、人間がジェネレーティブAIと競合し、協力し、あるいは統合する可能性が高いかどうかも明らかにするかもしれない。
この比較は、人間の属性のスコーピングレビュー[1]と生成AI属性の迅速なレビュー[2]という2つのレビューに基づいている。
その分析は特徴を独特さと影響によって分類する。
結果は表形式で表示され、人間と生成AI属性のセットとサブセットを比較します。
人間と生成的AI意思決定属性は相補的な強みを持つ。
これら2つのエンティティ間の協力は、純粋な競争よりもありそうに思える。
意味のある意思決定の役割を維持するために、人間は、人間と生成AIのコントリビューションを統合した意思決定システムによって、独自の属性を開発することができる。
これらの実体は将来、収束するかもしれない。
関連論文リスト
- We Are All Creators: Generative AI, Collective Knowledge, and the Path Towards Human-AI Synergy [1.2499537119440245]
生成的AIは、人間の独特性という伝統的な概念に深刻な課題を呈している。
ニューラルネットワークベースのファンデーションモデルにより、これらのシステムは顕著なコンテンツ生成能力を示す。
本稿では、生成AIは、知性と創造性の代替形態であると主張している。
論文 参考訳(メタデータ) (2025-04-10T17:50:17Z) - Aligning Generalisation Between Humans and Machines [74.120848518198]
近年のAIの進歩は、科学的発見と意思決定支援において人間を支援できる技術をもたらしたが、民主主義と個人を妨害する可能性がある。
AIの責任ある使用は、ますます人間とAIのチームの必要性を示している。
これらの相互作用の重要かつしばしば見落とされがちな側面は、人間と機械が一般化する異なる方法である。
論文 参考訳(メタデータ) (2024-11-23T18:36:07Z) - Human Bias in the Face of AI: The Role of Human Judgement in AI Generated Text Evaluation [48.70176791365903]
本研究では、偏見がAIと人為的コンテンツの知覚をどう形成するかを考察する。
ラベル付きおよびラベルなしコンテンツに対するヒトのラッカーの反応について検討した。
論文 参考訳(メタデータ) (2024-09-29T04:31:45Z) - Measuring Human Contribution in AI-Assisted Content Generation [66.06040950325969]
本研究は,AIによるコンテンツ生成における人間の貢献度を測定する研究課題を提起する。
人間の入力とAI支援出力の自己情報に対する相互情報を計算することにより、コンテンツ生成における人間の比例情報貢献を定量化する。
論文 参考訳(メタデータ) (2024-08-27T05:56:04Z) - AI-enhanced Collective Intelligence [2.5063318977668465]
人間とAIは、人間またはAIの集団的知性を単独で超越できる補完的能力を持っている。
このレビューでは、複雑なネットワーク科学からの視点を取り入れ、人間-AI集団知能の多層表現を概念化する。
エージェントの多様性と相互作用がシステムの集合知にどのように影響するかを探求し、AIによって強化された集合知の実例を分析する。
論文 参考訳(メタデータ) (2024-03-15T16:11:15Z) - Learning Complementary Policies for Human-AI Teams [22.13683008398939]
本稿では,効果的な行動選択のための新しい人間-AI協調のための枠組みを提案する。
私たちのソリューションは、人間とAIの相補性を利用して意思決定報酬を最大化することを目的としています。
論文 参考訳(メタデータ) (2023-02-06T17:22:18Z) - The Role of AI in Drug Discovery: Challenges, Opportunities, and
Strategies [97.5153823429076]
この分野でのAIのメリット、課題、欠点についてレビューする。
データ拡張、説明可能なAIの使用、従来の実験手法とAIの統合についても論じている。
論文 参考訳(メタデータ) (2022-12-08T23:23:39Z) - On the Effect of Information Asymmetry in Human-AI Teams [0.0]
我々は、人間とAIの相補的ポテンシャルの存在に焦点を当てる。
具体的には、情報非対称性を相補性ポテンシャルの必須源とみなす。
オンライン実験を行うことで、人間がそのような文脈情報を使ってAIの決定を調整できることを実証する。
論文 参考訳(メタデータ) (2022-05-03T13:02:50Z) - Effect of Confidence and Explanation on Accuracy and Trust Calibration
in AI-Assisted Decision Making [53.62514158534574]
ケース固有のモデル情報を明らかにする特徴が、信頼度を調整し、人間とAIのジョイントパフォーマンスを向上させることができるかどうかを検討する。
信頼スコアは、AIモデルに対する人々の信頼を校正するのに役立ちますが、信頼の校正だけでは、AI支援による意思決定を改善するには不十分です。
論文 参考訳(メタデータ) (2020-01-07T15:33:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。