論文の概要: Human-Centred Evaluation of Text-to-Image Generation Models for Self-expression of Mental Distress: A Dataset Based on GPT-4o
- arxiv url: http://arxiv.org/abs/2512.04087v1
- Date: Sun, 26 Oct 2025 08:30:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-07 19:06:32.43165
- Title: Human-Centred Evaluation of Text-to-Image Generation Models for Self-expression of Mental Distress: A Dataset Based on GPT-4o
- Title(参考訳): 心的距離の自己表現のためのテキスト・画像生成モデルの人間中心評価:GPT-4oに基づくデータセット
- Authors: Sui He, Shenbin Qian,
- Abstract要約: 心的苦痛の自己表現を支援するためのAI生成画像の有効性を評価する。
英国大学で勉強している20人の中国人留学生が、精神的な苦痛に関する個人的な経験を説明するために招待された。
- 参考スコア(独自算出の注目度): 0.6629765271909503
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Effective communication is central to achieving positive healthcare outcomes in mental health contexts, yet international students often face linguistic and cultural barriers that hinder their communication of mental distress. In this study, we evaluate the effectiveness of AI-generated images in supporting self-expression of mental distress. To achieve this, twenty Chinese international students studying at UK universities were invited to describe their personal experiences of mental distress. These descriptions were elaborated using GPT-4o with four persona-based prompt templates rooted in contemporary counselling practice to generate corresponding images. Participants then evaluated the helpfulness of generated images in facilitating the expression of their feelings based on their original descriptions. The resulting dataset comprises 100 textual descriptions of mental distress, 400 generated images, and corresponding human evaluation scores. Findings indicate that prompt design substantially affects perceived helpfulness, with the illustrator persona achieving the highest ratings. This work introduces the first publicly available text-to-image evaluation dataset with human judgment scores in the mental health domain, offering valuable resources for image evaluation, reinforcement learning with human feedback, and multi-modal research on mental health communication.
- Abstract(参考訳): 効果的なコミュニケーションは、メンタルヘルスの文脈においてポジティブな医療成果を達成するための中心であるが、国際学生はしばしば、精神的苦痛のコミュニケーションを妨げる言語的、文化的障壁に直面している。
本研究では,知的苦痛の自己表現を支援するために,AI生成画像の有効性を評価する。
これを達成するために、英国大学で勉強している20人の中国人留学生が、精神的苦痛の個人的な経験を説明するために招待された。
これらの記述は、現代カウンセリングの実践に根ざした4つのペルソナベースのプロンプトテンプレートを用いたGPT-4oを用いて、対応する画像を生成する。
参加者は、オリジナルの記述に基づいて、感情の表現を容易にするために生成された画像の有用性を評価した。
得られたデータセットは、精神的な苦痛に関する100のテキスト記述と、400の生成された画像と、それに対応する人間の評価スコアから構成される。
調査の結果,素早いデザインは有益感に大きく影響し,イラストレーターのペルソナが最も高い評価を得た。
本研究は、画像評価、人間のフィードバックによる強化学習、メンタルヘルスコミュニケーションに関するマルチモーダル研究のための貴重なリソースを提供する、メンタルヘルス領域における人間の判断スコアを備えた、初めて公開されたテキスト・ツー・イメージ評価データセットを紹介する。
関連論文リスト
- VS-LLM: Visual-Semantic Depression Assessment based on LLM for Drawing Projection Test [40.37064404430504]
ドローイング・プロジェクション・テスト(DPT)は、心理学者がスケッチを通して参加者の精神状態を評価することを可能にする、アートセラピーにおいて不可欠なツールである。
本稿では,大規模自動DPTの実施において,心理学者を支援する効果的な同定法を提案する。
論文 参考訳(メタデータ) (2025-08-07T11:59:50Z) - PVP: An Image Dataset for Personalized Visual Persuasion with Persuasion Strategies, Viewer Characteristics, and Persuasiveness Ratings [15.628185656632967]
596個のメッセージに28,454個の説得画像と9つの説得戦略からなるパーソナライズされたビジュアル説得データセットをリリースする。
このデータセットは、2,521人のアノテーションによって評価された画像の説得力スコアと、その人口統計学的および心理的特徴を提供する。
実験の結果,心理的特徴を取り入れることで説得的画像の生成と評価が促進されることが判明した。
論文 参考訳(メタデータ) (2025-05-31T09:21:57Z) - Towards More Accurate Personalized Image Generation: Addressing Overfitting and Evaluation Bias [52.590072198551944]
画像パーソナライズの目的は、ユーザが提供する課題に基づいて画像を作成することである。
現在の手法では、テキストプロンプトへの忠実性を保証する上で、課題に直面している。
トレーニング画像の歪みを除去するアトラクタを組み込んだ,新たなトレーニングパイプラインを導入する。
論文 参考訳(メタデータ) (2025-03-09T14:14:02Z) - AI-Enhanced Cognitive Behavioral Therapy: Deep Learning and Large Language Models for Extracting Cognitive Pathways from Social Media Texts [27.240795549935463]
ソーシャルメディアからデータを収集し,認知経路抽出の課題を確立した。
我々は、精神療法士が重要な情報を素早く把握できるよう、テキスト要約タスクを構築した。
本研究では,ディープラーニングモデルと大規模言語モデルの性能評価を行った。
論文 参考訳(メタデータ) (2024-04-17T14:55:27Z) - Impressions: Understanding Visual Semiotics and Aesthetic Impact [66.40617566253404]
画像のセミオティックスを調べるための新しいデータセットであるImpressionsを提示する。
既存のマルチモーダル画像キャプションと条件付き生成モデルは、画像に対する可視的応答をシミュレートするのに苦労していることを示す。
このデータセットは、微調整と少数ショット適応により、画像の印象や美的評価をモデル化する能力を大幅に改善する。
論文 参考訳(メタデータ) (2023-10-27T04:30:18Z) - PLIP: Language-Image Pre-training for Person Representation Learning [51.348303233290025]
個人表現学習のための新しい言語画像事前学習フレームワークPLIPを提案する。
このフレームワークを実装するために,SynTH-PEDESという画像テキストペアを用いた大規模人物データセットを構築した。
PLIPはこれらのタスクの既存のメソッドを大幅に改善するだけでなく、ゼロショットやドメインの一般化設定でも優れた機能を示している。
論文 参考訳(メタデータ) (2023-05-15T06:49:00Z) - Towards Interpretable Mental Health Analysis with Large Language Models [27.776003210275608]
大規模言語モデル(LLM)のメンタルヘルス分析と感情的推論能力は,5つのタスクにまたがる11のデータセット上で評価した。
本研究は, 精神保健分析のためのLCMについて, それぞれの意思決定に関する説明を提示するように指示することで, 解釈可能な精神保健分析を行う。
得られた説明の質を評価するために、厳密な人的評価を伝達し、163の人的評価による新しいデータセットを作成する。
論文 参考訳(メタデータ) (2023-04-06T19:53:59Z) - Affection: Learning Affective Explanations for Real-World Visual Data [50.28825017427716]
我々は,85,007枚の公開画像に対して,感情反応と自由形式のテキスト説明を含む大規模データセットを研究コミュニティに導入し,共有する。
本研究は, 被写体集団に大きな支持を得て, 潜在的に有意な感情反応をとらえる上で, 重要な共通基盤があることを示唆する。
私たちの研究は、より豊かで、より人間中心で、感情に敏感な画像分析システムへの道を開くものです。
論文 参考訳(メタデータ) (2022-10-04T22:44:17Z) - Exploring CLIP for Assessing the Look and Feel of Images [87.97623543523858]
ゼロショット方式で画像の品質知覚(ルック)と抽象知覚(フィール)の両方を評価するために,コントラスト言語-画像事前学習(CLIP)モデルを導入する。
以上の結果から,CLIPは知覚的評価によく適合する有意義な先行情報を捉えることが示唆された。
論文 参考訳(メタデータ) (2022-07-25T17:58:16Z) - Affective Image Content Analysis: Two Decades Review and New
Perspectives [132.889649256384]
我々は,過去20年間の情緒的イメージコンテンツ分析(AICA)の発展を包括的にレビューする。
我々は、感情的ギャップ、知覚主観性、ラベルノイズと欠如という3つの主要な課題に関して、最先端の手法に焦点を当てる。
画像の内容やコンテキスト理解,グループ感情クラスタリング,ビューアーとイメージのインタラクションなど,今後の課題や研究の方向性について論じる。
論文 参考訳(メタデータ) (2021-06-30T15:20:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。