論文の概要: A Day in Their Shoes: Using LLM-Based Perspective-Taking Interactive Fiction to Reduce Stigma Toward Dirty Work
- arxiv url: http://arxiv.org/abs/2505.05786v1
- Date: Fri, 09 May 2025 05:02:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-12 20:40:10.15679
- Title: A Day in Their Shoes: Using LLM-Based Perspective-Taking Interactive Fiction to Reduce Stigma Toward Dirty Work
- Title(参考訳): 靴の1日 : LLMを用いた視点調整型インタラクティブフィクションによる汚れ作業に対するスティグマ低減
- Authors: Xiangzhe Yuan, Jiajun Wang, Qian Wan, Siying Hu,
- Abstract要約: 汚い仕事」と呼ばれる職業はしばしば社会的汚職に直面している。
本稿では,Large Language Models (LLM) を利用したインタラクティブ・フィクション・フレームワークを提案する。
- 参考スコア(独自算出の注目度): 4.897318643396687
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Occupations referred to as "dirty work" often face entrenched social stigma, which adversely affects the mental health of workers in these fields and impedes occupational equity. In this study, we propose a novel Interactive Fiction (IF) framework powered by Large Language Models (LLMs) to encourage perspective-taking and reduce biases against these stigmatized yet essential roles. Through an experiment with participants (n = 100) across four such occupations, we observed a significant increase in participants' understanding of these occupations, as well as a high level of empathy and a strong sense of connection to individuals in these roles. Additionally, qualitative interviews with participants (n = 15) revealed that the LLM-based perspective-taking IF enhanced immersion, deepened emotional resonance and empathy toward "dirty work," and allowed participants to experience a sense of professional fulfillment in these occupations. However, participants also highlighted ongoing challenges, such as limited contextual details generated by the LLM and the unintentional reinforcement of existing stereotypes. Overall, our findings underscore that an LLM-based perspective-taking IF framework offers a promising and scalable strategy for mitigating stigma and promoting social equity in marginalized professions.
- Abstract(参考訳): 汚職」と呼ばれる職業は、しばしば社会的汚職に直面し、これらの分野の労働者のメンタルヘルスに悪影響を及ぼし、職業的株式を損なう。
本研究では,Large Language Models (LLMs) を利用したインタラクティブ・フィクション(IF)フレームワークを提案する。
4つの職業にわたる参加者(n = 100)による実験を通じて、これらの職業に対する参加者の理解が顕著に増加し、高いレベルの共感と、それらの役割における個人との関係感が強くなった。
さらに、参加者との質的なインタビュー(n = 15)では、LLMに基づく視点取りIFは没入感を高め、感情共鳴と「汚れ仕事」に対する共感を深め、これらの職業において職業的満足感を体験することを可能にした。
しかし、参加者はLLMが生み出す文脈的詳細や、既存のステレオタイプを意図しない強化など、現在進行中の課題も強調した。
総じて, LLMを基盤とした視点取り型IFフレームワークは, ストーグマを緩和し, ソーシャルエクイティを促進する上で, 有望かつスケーラブルな戦略を提供すると考えられる。
関連論文リスト
- The Empty Chair: Using LLMs to Raise Missing Perspectives in Policy Deliberations [12.862709275890563]
会話をリアルタイムで書き起こすツールを開発し評価し、関連するが欠落している利害関係者からの入力をシミュレートする。
我々はこのツールを、キャンパスサステナビリティに関する19人の学生の集会に展開する。
参加者やファシリテーターは、このツールが新たな議論を巻き起こし、これまで考慮していなかった価値ある視点を浮き彫りにした。
論文 参考訳(メタデータ) (2025-03-18T01:45:08Z) - Persuasion with Large Language Models: a Survey [49.86930318312291]
大規模言語モデル (LLM) は説得力のあるコミュニケーションに新たな破壊的可能性を生み出している。
政治、マーケティング、公衆衛生、電子商取引、慈善事業などの分野では、LLMシステムズは既に人間レベルや超人的説得力を達成している。
LLMをベースとした説得の現在と将来の可能性は、倫理的・社会的リスクを著しく引き起こす可能性が示唆された。
論文 参考訳(メタデータ) (2024-11-11T10:05:52Z) - The Career Interests of Large Language Models [35.18062121410434]
本研究は,Large Language Models (LLMs) に Occupation Network's Interest Profiler ショートフォームを適用することで,キャリアの関心事の側面に焦点を当てる。
LLMでは,特に社会的・芸術的領域において,キャリアへの関心が顕著であった。
心理測定器と高度統計ツールをLCM上で使用するこの新しいアプローチは、彼らの専門的な環境への統合について、新たな視点を浮き彫りにする。
論文 参考訳(メタデータ) (2024-07-11T14:54:46Z) - A Survey on Large Language Models for Critical Societal Domains: Finance, Healthcare, and Law [65.87885628115946]
大規模言語モデル(LLM)は、金融、医療、法律の展望に革命をもたらしている。
我々は、医療における診断・治療方法論の強化、財務分析の革新、法的解釈・コンプライアンス戦略の精査におけるLCMの役割を強調した。
これらの分野におけるLLMアプリケーションの倫理を批判的に検討し、既存の倫理的懸念と透明で公平で堅牢なAIシステムの必要性を指摘した。
論文 参考訳(メタデータ) (2024-05-02T22:43:02Z) - Effectiveness Assessment of Recent Large Vision-Language Models [78.69439393646554]
本稿では,多言語多言語モデル(LVLM)の専門的および汎用的な課題における能力を評価する。
私たちは、自然、医療、産業という3つの異なるアプリケーションシナリオで6つの挑戦的なタスクを採用しています。
我々は,MiniGPT-v2,LLaVA-1.5,Shikraを含む最近の3つのオープンソースLVLMの視覚的認識および局所化性能について検討した。
論文 参考訳(メタデータ) (2024-03-07T08:25:27Z) - Deception Abilities Emerged in Large Language Models [0.0]
大規模言語モデル(LLM)は、現在、人間のコミュニケーションと日常の生活を備えた人工知能(AI)システムの最前線にある。
本研究は, GPT-4 などの最先端 LLM にそのような戦略が出現したが, 初期の LLM には存在しなかったことを明らかにする。
我々は、最先端のLLMが他のエージェントの誤った信念を理解し、誘導できることを示す一連の実験を行う。
論文 参考訳(メタデータ) (2023-07-31T09:27:01Z) - Fairness of ChatGPT [30.969927447499405]
本研究は,ChatGPTを研究事例として,LLMの有効性と妥当性を体系的に評価することを目的とする。
われわれは、ChatGPTの教育、犯罪学、金融、医療などハイテイク分野における業績を評価することに重点を置いている。
この研究は、LLMの公平性のパフォーマンスをより深く理解し、バイアス軽減を促進し、責任あるAIシステムの開発を促進する。
論文 参考訳(メタデータ) (2023-05-22T17:51:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。