論文の概要: Speculative Model Risk in Healthcare AI: Using Storytelling to Surface Unintended Harms
- arxiv url: http://arxiv.org/abs/2510.14718v1
- Date: Thu, 16 Oct 2025 14:18:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-17 21:15:14.897279
- Title: Speculative Model Risk in Healthcare AI: Using Storytelling to Surface Unintended Harms
- Title(参考訳): 医療AIにおける投機的モデルリスク:ストーリーテリングを用いて意図しないハームを表面化する
- Authors: Xingmeng Zhao, Dan Schumacher, Veronica Rammouz, Anthony Rios,
- Abstract要約: 迅速かつ低障壁な開発は、バイアス、プライバシー侵害、不正アクセスのリスクをもたらす可能性がある。
ユーザストーリーを生成し,マルチエージェントによる議論を支援する,人間中心のフレームワークを提案する。
以上の結果から,ストーリーテリングは,幅広い害や利益を推測する上で有効であることが示唆された。
- 参考スコア(独自算出の注目度): 8.135532059806339
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Artificial intelligence (AI) is rapidly transforming healthcare, enabling fast development of tools like stress monitors, wellness trackers, and mental health chatbots. However, rapid and low-barrier development can introduce risks of bias, privacy violations, and unequal access, especially when systems ignore real-world contexts and diverse user needs. Many recent methods use AI to detect risks automatically, but this can reduce human engagement in understanding how harms arise and who they affect. We present a human-centered framework that generates user stories and supports multi-agent discussions to help people think creatively about potential benefits and harms before deployment. In a user study, participants who read stories recognized a broader range of harms, distributing their responses more evenly across all 13 harm types. In contrast, those who did not read stories focused primarily on privacy and well-being (58.3%). Our findings show that storytelling helped participants speculate about a broader range of harms and benefits and think more creatively about AI's impact on users.
- Abstract(参考訳): 人工知能(AI)は医療を急速に変革させており、ストレスモニター、ウェルネストラッカー、メンタルヘルスチャットボットなどのツールを迅速に開発することができる。
しかし、高速かつ低障壁な開発は、特にシステムが現実世界のコンテキストや多様なユーザーニーズを無視している場合、バイアス、プライバシー侵害、不正アクセスのリスクをもたらす可能性がある。
近年の多くの手法では、AIを使ってリスクを自動的に検出するが、それによって人間の関与を減らし、被害がどのように発生し、誰が影響を受けるかを理解することができる。
ユーザストーリーを生成し、マルチエージェントの議論をサポートし、デプロイ前に潜在的な利益や害について創造的に考えるのを支援する。
ユーザスタディでは、ストーリーを読む参加者は、より広い範囲の害を認識し、より均等に13種類の害タイプに回答した。
対照的に、記事を読んでいない人は、主にプライバシーと幸福(58.3%)に焦点を当てている。
私たちの調査によると、ストーリーテリングは、参加者が幅広い害や利益について推測し、AIがユーザに与える影響をより創造的に考えるのに役立ちました。
関連論文リスト
- Sycophantic AI Decreases Prosocial Intentions and Promotes Dependence [31.666988490509237]
我々は、人々がAIからアドバイスを求めるとき、梅毒の広範性と有害な影響を示す。
モデルは非常にサイコファン性が高く、ユーザーの行動が人間よりも50%多いことを確認しています。
参加者は、サイコファンティックな反応をより高い品質と評価し、サイコファンティックなAIモデルをより信頼し、再びそれを使う意思があった。
論文 参考訳(メタデータ) (2025-10-01T19:26:01Z) - The AI Model Risk Catalog: What Developers and Researchers Miss About Real-World AI Harms [7.37865739449202]
私たちはHugging Faceから約46万のAIモデルカードを分析し、開発者がリスクを報告する方法を調べました。
我々はこれらを、MITのリスクリポジトリの研究者が特定したリスクと、AIインシデントデータベースの現実世界のインシデントと比較した。
この結果は、設計プロセスの初期段階において、開発者がヒューマンインタラクションやシステム的リスクについて考えるのに役立つ、より明確で構造化されたリスクレポートの必要性を示している。
論文 参考訳(メタデータ) (2025-08-21T07:07:41Z) - Modeling Human Responses to Multimodal AI Content [10.65875439980452]
MhAIMデータセットには154,552のオンラインポストが含まれている(うち111,153がAI生成)
私たちの人間による研究は、投稿にテキストとビジュアルの両方が含まれている場合、人々はAIコンテンツを特定するのがより優れていることを示している。
マルチモーダル情報に予測応答を組み込むことにより,ユーザの問い合わせに応答するエージェントシステムであるT-Lensを提案する。
論文 参考訳(メタデータ) (2025-08-14T15:55:19Z) - Ask ChatGPT: Caveats and Mitigations for Individual Users of AI Chatbots [10.977907906989342]
ChatGPTや他のLLM(Large Language Model)ベースのAIチャットボットは、個人の日常生活にますます統合される。
これらのシステムが個々のユーザーにどのような懸念とリスクをもたらすのか?
それらが引き起こす可能性のある潜在的な害は、どのように軽減されるのか?
論文 参考訳(メタデータ) (2025-08-14T01:40:13Z) - Human Bias in the Face of AI: Examining Human Judgment Against Text Labeled as AI Generated [48.70176791365903]
本研究では、偏見がAIと人為的コンテンツの知覚をどう形成するかを考察する。
ラベル付きおよびラベルなしコンテンツに対するヒトのラッカーの反応について検討した。
論文 参考訳(メタデータ) (2024-09-29T04:31:45Z) - Factuality Challenges in the Era of Large Language Models [113.3282633305118]
大規模言語モデル(LLM)は、誤った、誤った、あるいは誤解を招くコンテンツを生成する。
LLMは悪意のあるアプリケーションに利用することができる。
これは、ユーザーを欺く可能性があるという点で、社会に重大な課題をもたらす。
論文 参考訳(メタデータ) (2023-10-08T14:55:02Z) - An Overview of Catastrophic AI Risks [38.84933208563934]
本稿では,破滅的なAIリスクの主な要因について概説し,その要因を4つのカテゴリに分類する。
個人やグループが意図的にAIを使用して危害を及ぼす悪用; 競争環境がアクターに安全でないAIを配置させたり、AIに制御を強制するAIレース。
組織的リスクは 人的要因と複雑なシステムが 破滅的な事故の 可能性を高めることを示しています
不正なAIは、人間よりもはるかにインテリジェントなエージェントを制御することの難しさを説明する。
論文 参考訳(メタデータ) (2023-06-21T03:35:06Z) - What Do End-Users Really Want? Investigation of Human-Centered XAI for
Mobile Health Apps [69.53730499849023]
説明可能なAI(XAI)を評価するために,ユーザ中心のペルソナ概念を提案する。
分析の結果,ユーザの人口統計や性格,説明のタイプ,影響説明の嗜好が示された。
私たちの洞察は、対話的で人間中心のXAIを実践的な応用に近づけます。
論文 参考訳(メタデータ) (2022-10-07T12:51:27Z) - Adversarial Interaction Attack: Fooling AI to Misinterpret Human
Intentions [46.87576410532481]
現在の大きな成功にもかかわらず、ディープラーニングベースのAIシステムは、微妙な敵対的ノイズによって容易に騙されることを示した。
骨格に基づくヒトの相互作用のケーススタディに基づき、相互作用に対する新しい敵対的攻撃を提案する。
本研究では、安全クリティカルなアプリケーションにAIシステムをデプロイする際に慎重に対処する必要があるAIと人間との相互作用ループにおける潜在的なリスクを強調します。
論文 参考訳(メタデータ) (2021-01-17T16:23:20Z) - Overcoming Failures of Imagination in AI Infused System Development and
Deployment [71.9309995623067]
NeurIPS 2020は研究論文に「潜在的な悪用と失敗の結果」に関するインパクトステートメントを含むよう要求した。
我々は、害の枠組みは文脈に適応し、潜在的な利害関係者、システム余裕、および最も広い意味での害を評価するための実行可能なプロキシを考える必要があると論じている。
論文 参考訳(メタデータ) (2020-11-26T18:09:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。