論文の概要: From Symptoms to Systems: An Expert-Guided Approach to Understanding Risks of Generative AI for Eating Disorders
- arxiv url: http://arxiv.org/abs/2512.04843v1
- Date: Thu, 04 Dec 2025 14:27:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-05 21:11:46.216975
- Title: From Symptoms to Systems: An Expert-Guided Approach to Understanding Risks of Generative AI for Eating Disorders
- Title(参考訳): 症状からシステムへ:障害を食べるためのジェネレーティブAIのリスクを理解するためのエキスパートガイドによるアプローチ
- Authors: Amy Winecoff, Kevin Klyman,
- Abstract要約: 生成的AIシステムは、摂食障害に弱い個人に深刻なリスクをもたらす可能性がある。
摂食障害を専門とする15名の臨床医,研究者,実践者を対象に半構造化インタビューを行った。
我々は,7つのカテゴリーにまたがって,生成的AIリスクの専門的な分類法を開発した。
- 参考スコア(独自算出の注目度): 1.8134982524397814
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Generative AI systems may pose serious risks to individuals vulnerable to eating disorders. Existing safeguards tend to overlook subtle but clinically significant cues, leaving many risks unaddressed. To better understand the nature of these risks, we conducted semi-structured interviews with 15 clinicians, researchers, and advocates with expertise in eating disorders. Using abductive qualitative analysis, we developed an expert-guided taxonomy of generative AI risks across seven categories: (1) providing generalized health advice; (2) encouraging disordered behaviors; (3) supporting symptom concealment; (4) creating thinspiration; (5) reinforcing negative self-beliefs; (6) promoting excessive focus on the body; and (7) perpetuating narrow views about eating disorders. Our results demonstrate how certain user interactions with generative AI systems intersect with clinical features of eating disorders in ways that may intensify risk. We discuss implications of our work, including approaches for risk assessment, safeguard design, and participatory evaluation practices with domain experts.
- Abstract(参考訳): 生成的AIシステムは、摂食障害に弱い個人に深刻なリスクをもたらす可能性がある。
既存のセーフガードは微妙だが臨床的に重要な手がかりを見逃しがちで、多くのリスクは未解決のままである。
本研究は, 摂食障害に関する専門知識を持つ15人の臨床医, 研究者, 実践者を対象に, 半構造化インタビューを行った。
誘引的質的分析を用いて,(1)全般的な健康アドバイスの提供,(2)混乱した行動の促進,(3)症状の隠蔽の支援,(4)呼吸の抑制,(5)ネガティブな自己満足の強化,(6)過剰な身体への集中の促進,(7)摂食障害に関する狭い視点の継続という7つのカテゴリにわたる,AIのリスクに関する専門家主導の分類法を開発した。
本研究は, 摂食障害の臨床的特徴と, 生成型AIシステムとのユーザインタラクションが, リスクを増大させる可能性のある方法でどのように交わるかを示すものである。
リスクアセスメント、安全設計、ドメインエキスパートとの参加型評価の実践など、我々の仕事の意味について論じる。
関連論文リスト
- AI Deception: Risks, Dynamics, and Controls [153.71048309527225]
このプロジェクトは、AI偽装分野の包括的で最新の概要を提供する。
我々は、動物の偽装の研究からシグナル伝達理論に基づく、AI偽装の正式な定義を同定する。
我々は,AI偽装研究の展望を,偽装発生と偽装処理の2つの主要な構成要素からなる偽装サイクルとして整理する。
論文 参考訳(メタデータ) (2025-11-27T16:56:04Z) - Can Risk-taking AI-Assistants suitably represent entities [0.0]
本研究では,言語モデル(LM)におけるリスク回避の操作性について検討する。
性別固有の態度、不確実性、役割に基づく意思決定、リスク回避の操作性に焦点を当てている。
結果は、人間とAIのリスク選好をより良く整合させるために、AI設計を洗練するための方向性を示唆している。
論文 参考訳(メタデータ) (2025-10-09T11:55:31Z) - A Risk Ontology for Evaluating AI-Powered Psychotherapy Virtual Agents [13.721977133773192]
大言語モデル (LLMs) と知的仮想エージェント (Intelligent Virtual Agents) は精神療法士として機能し、メンタルヘルスアクセスを拡大する機会を提供する。
彼らの展開は、ユーザーの損害や自殺など、深刻な有害な結果にも結びついている。
我々は、会話型AI心理療法士の体系的評価に特化して設計された新しいリスクオントロジーを導入する。
論文 参考訳(メタデータ) (2025-05-21T05:01:39Z) - From Lived Experience to Insight: Unpacking the Psychological Risks of Using AI Conversational Agents [21.66189033227397]
我々の研究は、個人の生きた経験を通して収集されたAIを使用することの心理的リスクに焦点を当てた、新しいリスク分類を提示する。
我々の分類学は、19のAI行動、21のネガティブな心理的影響、および個人に関連する15の文脈を特徴としている。
論文 参考訳(メタデータ) (2024-12-10T22:31:29Z) - Risks and NLP Design: A Case Study on Procedural Document QA [52.557503571760215]
より具体的なアプリケーションやユーザに対して分析を専門化すれば,ユーザに対するリスクや害の明確な評価が可能になる,と我々は主張する。
リスク指向のエラー分析を行い、リスクの低減とパフォーマンスの向上を図り、将来のシステムの設計を通知する。
論文 参考訳(メタデータ) (2024-08-16T17:23:43Z) - Risks of AI Scientists: Prioritizing Safeguarding Over Autonomy [65.77763092833348]
この視点は、AI科学者の脆弱性を調べ、その誤用に関連する潜在的なリスクに光を当てる。
我々は、ユーザ意図、特定の科学的領域、およびそれらが外部環境に与える影響を考慮に入れている。
本稿では,人間規制,エージェントアライメント,環境フィードバックの理解を含む三段階的枠組みを提案する。
論文 参考訳(メタデータ) (2024-02-06T18:54:07Z) - PsySafe: A Comprehensive Framework for Psychological-based Attack, Defense, and Evaluation of Multi-agent System Safety [70.84902425123406]
大規模言語モデル(LLM)で拡張されたマルチエージェントシステムは、集団知能において重要な能力を示す。
しかし、悪意のある目的のためにこのインテリジェンスを誤用する可能性があり、重大なリスクが生じる。
本研究では,エージェント心理学を基盤とした枠組み(PsySafe)を提案し,エージェントのダークパーソナリティ特性がリスク行動にどう影響するかを明らかにする。
実験の結果,エージェント間の集団的危険行動,エージェントが危険な行動を行う際の自己反射,エージェントの心理的評価と危険な行動との相関など,いくつかの興味深い現象が明らかになった。
論文 参考訳(メタデータ) (2024-01-22T12:11:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。