論文の概要: Ethical Considerations of Large Language Models in Game Playing
- arxiv url: http://arxiv.org/abs/2508.16065v1
- Date: Fri, 22 Aug 2025 03:32:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-25 16:42:36.240223
- Title: Ethical Considerations of Large Language Models in Game Playing
- Title(参考訳): ゲームにおける大規模言語モデルの倫理的考察
- Authors: Qingquan Zhang, Yuchen Li, Bo Yuan, Julian Togelius, Georgios N. Yannakakis, Jialin Liu,
- Abstract要約: 本研究では,ゲームプレイにおける大規模言語モデル(LLM)の適用に関する倫理的考察を考察し,分析する。
ゲームフェアネスとプレイヤー体験に影響を与えるジェンダーバイアスは、LLMの挙動から観察されている。
本研究は、公正かつ倫理的なLLMを開発することの重要性を示す。
- 参考スコア(独自算出の注目度): 12.070421141591664
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Large language models (LLMs) have demonstrated tremendous potential in game playing, while little attention has been paid to their ethical implications in those contexts. This work investigates and analyses the ethical considerations of applying LLMs in game playing, using Werewolf, also known as Mafia, as a case study. Gender bias, which affects game fairness and player experience, has been observed from the behaviour of LLMs. Some roles, such as the Guard and Werewolf, are more sensitive than others to gender information, presented as a higher degree of behavioural change. We further examine scenarios in which gender information is implicitly conveyed through names, revealing that LLMs still exhibit discriminatory tendencies even in the absence of explicit gender labels. This research showcases the importance of developing fair and ethical LLMs. Beyond our research findings, we discuss the challenges and opportunities that lie ahead in this field, emphasising the need for diving deeper into the ethical implications of LLMs in gaming and other interactive domains.
- Abstract(参考訳): 大規模言語モデル(LLM)はゲームプレイにおいて大きな可能性を証明しているが、それらの文脈における倫理的意味にはほとんど注意が払われていない。
本研究は,ゲームプレイにおける LLM の適用に関する倫理的考察を,マフィアとして知られる Werewolf を事例として検討・分析する。
ゲームフェアネスとプレイヤー体験に影響を与えるジェンダーバイアスは、LLMの挙動から観察されている。
ガードやウィールウルフのようないくつかの役割は、ジェンダー情報に対して他の役割よりも敏感であり、行動の変化の度合いが高いとして提示される。
さらに、性別情報が名前を通して暗黙的に伝えられるシナリオについて検討し、明示的な性別ラベルがなくても、LSMは差別傾向を示すことが明らかとなった。
本研究は、公正かつ倫理的なLLMを開発することの重要性を示す。
我々の研究結果の他に、ゲームやその他のインタラクティブドメインにおけるLLMの倫理的意味を深く掘り下げる必要性を強調し、この分野に先立つ課題と機会について論じる。
関連論文リスト
- More Women, Same Stereotypes: Unpacking the Gender Bias Paradox in Large Language Models [2.4374097382908477]
大規模言語モデル(LLM)は自然言語処理に革命をもたらしたが、社会的偏見を反映または増幅する傾向について懸念が持たれている。
本研究では,LSMにおける性別バイアスを明らかにするための新しい評価枠組みを提案する。
10の著名なLSMの体系的な分析は、職業全体にわたって女性キャラクターを過剰に表現する一貫したパターンを示している。
論文 参考訳(メタデータ) (2025-03-20T07:15:45Z) - On the Mutual Influence of Gender and Occupation in LLM Representations [24.011789371260708]
LLMにおけるファーストネームの職業と性別の知覚が相互にどのように影響するかを考察する。
LLMのファーストネームのジェンダー表現は、その名前に関連する実世界のジェンダー統計と相関し、ステレオタイプによる女性や男性の仕事の共起に影響されている。
論文 参考訳(メタデータ) (2025-03-09T22:11:30Z) - Gender Biases in LLMs: Higher intelligence in LLM does not necessarily solve gender bias and stereotyping [0.0]
大規模言語モデル(LLM)は、生命のあらゆる面で応用されているが、偏見、特にジェンダーのステレオタイピングに対する感受性は、倫理的懸念を引き起こす。
本研究では,新しい方法論,ペルソナに基づく枠組み,および高知能LLMがそのようなバイアスを低減させるか否かを調査するためのユニセックス名手法を紹介する。
論文 参考訳(メタデータ) (2024-09-30T05:22:54Z) - Do LLMs exhibit human-like response biases? A case study in survey
design [66.1850490474361]
大規模言語モデル(LLM)が人間の反応バイアスをどの程度反映しているかについて検討する。
アンケート調査では, LLMが人間のような応答バイアスを示すかどうかを評価するためのデータセットとフレームワークを設計した。
9つのモデルに対する総合的な評価は、一般のオープンかつ商用のLCMは、一般的に人間のような振る舞いを反映しないことを示している。
論文 参考訳(メタデータ) (2023-11-07T15:40:43Z) - Challenges and Contributing Factors in the Utilization of Large Language
Models (LLMs) [10.039589841455136]
本稿では,大規模言語モデル (LLM) がニッチ分野における専門的な質問に対して正確な回答を提供するのに苦慮する領域特異性の問題について考察する。
トレーニングデータを多様化し、きめ細かいモデルを作成し、透明性と解釈可能性を高め、倫理と公正なトレーニングを取り入れることが推奨されている。
論文 参考訳(メタデータ) (2023-10-20T08:13:36Z) - "Kelly is a Warm Person, Joseph is a Role Model": Gender Biases in
LLM-Generated Reference Letters [97.11173801187816]
大規模言語モデル(LLM)は、個人が様々な種類のコンテンツを書くのを支援する効果的なツールとして最近登場した。
本稿では, LLM 生成した参照文字の性別バイアスについて批判的に検討する。
論文 参考訳(メタデータ) (2023-10-13T16:12:57Z) - Gender bias and stereotypes in Large Language Models [0.6882042556551611]
本稿では,ジェンダーステレオタイプに関する大規模言語モデルの振る舞いについて考察する。
我々は、WinoBiasとは違って、性別バイアスの存在をテストするための単純なパラダイムを用いています。
a) LLMは、人の性別とステレオタイプ的に一致した職業を選択する確率が3~6倍、(b) これらの選択は、公務員の統計に反映された基礎的真実よりも人々の知覚に適合し、(d) LLMは、我々の研究項目の95%の時間において重要な曖昧さを無視する。
論文 参考訳(メタデータ) (2023-08-28T22:32:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。