論文の概要: neuralFOMO: Can LLMs Handle Being Second Best? Measuring Envy-Like Preferences in Multi-Agent Settings
- arxiv url: http://arxiv.org/abs/2512.13481v1
- Date: Mon, 15 Dec 2025 16:17:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-16 17:54:56.742685
- Title: neuralFOMO: Can LLMs Handle Being Second Best? Measuring Envy-Like Preferences in Multi-Agent Settings
- Title(参考訳): ニューラルフォモ:LLMは2番目にうまく扱えるか?マルチエージェント環境での好奇心を測る
- Authors: Ojas Pungalia, Rashi Upadhyay, Abhishek Mishra, Abhiram H, Tejasvi Alladi, Sujan Yenuganti, Dhruv Kumar,
- Abstract要約: 妬みは競争力を形作る共通の人間の振る舞いであり、チーム設定で結果を変えることができる。
本稿では,大言語モデル (LLM) が互いにうらやましい振る舞いを示すかどうかを検証する。
- 参考スコア(独自算出の注目度): 2.5421739061996753
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Envy is a common human behavior that shapes competitiveness and can alter outcomes in team settings. As large language models (LLMs) increasingly act on behalf of humans in collaborative and competitive workflows, there is a pressing need to evaluate whether and under what conditions they exhibit envy-like preferences. In this paper, we test whether LLMs show envy-like behavior toward each other. We considered two scenarios: (1) A point allocation game that tests whether a model tries to win over its peer. (2) A workplace setting observing behaviour when recognition is unfair. Our findings reveal consistent evidence of envy-like patterns in certain LLMs, with large variation across models and contexts. For instance, GPT-5-mini and Claude-3.7-Sonnet show a clear tendency to pull down the peer model to equalize outcomes, whereas Mistral-Small-3.2-24B instead focuses on maximizing its own individual gains. These results highlight the need to consider competitive dispositions as a safety and design factor in LLM-based multi-agent systems.
- Abstract(参考訳): 妬みは競争力を形作る共通の人間の振る舞いであり、チーム設定で結果を変えることができる。
大規模言語モデル(LLM)は、協調的かつ競争的なワークフローにおいて、ますます人間を代表して行動するようになっているため、彼らがどんな条件で好むかを評価する必要がある。
本稿では,LLMが互いにうらやましい振る舞いを示すかどうかを検証した。
1)モデルがピアに勝とうとするかどうかをテストするポイントアロケーションゲーム。
2) 認識が不公平な場合の観察行動の設定。
以上の結果から,LLMでは,モデルや文脈によって大きな変化がみられ,エンビ様パターンが一貫した証拠が明らかとなった。
例えば、GPT-5-mini と Claude-3.7-Sonnet は結果の等化のためにピアモデルを取り下げる傾向を示すが、Mistral-Small-3.2-24B は個々の利得の最大化に重点を置いている。
これらの結果は、LLMベースのマルチエージェントシステムの安全性と設計要因として競合配置を検討する必要性を浮き彫りにした。
関連論文リスト
- SPARTA ALIGNMENT: Collectively Aligning Multiple Language Models through Combat [76.48873047003943]
SPARTA ALIGNMENT(SPARTA ALIGNMENT)を提案する。
各イテレーションにおいて、1つの命令と2つのモデルがデュエルのために選択され、他のモデルが2つのレスポンスを評価し、それらの評価スコアは、適応されたエロランクベースの評価システムを介して集約される。
ピア評価された戦闘結果は、敗戦よりも勝利の反応が優先される選好ペアとなり、各イテレーションの最後にこれらの選好からすべてのモデルが学習される。
論文 参考訳(メタデータ) (2025-06-05T07:51:23Z) - Do Large Language Models Exhibit Spontaneous Rational Deception? [0.913127392774573]
大規模言語モデル (LLM) は、そのように促されるときの判断に有効である。
しかし、どんな条件で自然に騙されるのか?
本研究は, LLMが生み出す自発誤を, 予め登録した実験プロトコルで評価する。
論文 参考訳(メタデータ) (2025-03-31T23:10:56Z) - Towards Large Language Models that Benefit for All: Benchmarking Group Fairness in Reward Models [16.977176752570617]
大規模言語モデル(LLM)は、ますます強力で、人間のユーザにとってアクセスしやすくなっている。
多様な人口集団、すなわちグループフェアネスの公平性を保証することは、批判的な倫理的関心事である。
この研究は、学習した報酬モデルのグループフェアネスをベンチマークする。
論文 参考訳(メタデータ) (2025-03-10T19:39:39Z) - Bias Similarity Measurement: A Black-Box Audit of Fairness Across LLMs [35.72288339965426]
バイアス類似度測定(BSM)は、公平性をモデル間の関係性として扱う。
オープンウェイトモデルは、プロプライエタリなシステムと一致したり、超えたりすることができる。
BSMは、調達、回帰テスト、系統スクリーニングのための監査ワークフローを提供する。
論文 参考訳(メタデータ) (2024-10-15T19:21:14Z) - Are Large Language Models Strategic Decision Makers? A Study of Performance and Bias in Two-Player Non-Zero-Sum Games [56.70628673595041]
大規模言語モデル (LLM) は現実世界での利用が増えているが、その戦略的意思決定能力はほとんど探索されていない。
本研究は,Stag Hunt と Prisoner Dilemma のカノニカルゲーム理論2人プレイヤ非ゼロサムゲームにおける LLM の性能とメリットについて検討する。
GPT-3.5, GPT-4-Turbo, GPT-4o, Llama-3-8Bの構造化評価は, これらのゲームにおいて決定を行う場合, 以下の系統的バイアスの少なくとも1つの影響を受けていることを示す。
論文 参考訳(メタデータ) (2024-07-05T12:30:02Z) - How Far Are We on the Decision-Making of LLMs? Evaluating LLMs' Gaming Ability in Multi-Agent Environments [83.78240828340681]
GAMA($gamma$)-Benchは、マルチエージェント環境における大規模言語モデルのゲーム能力を評価するための新しいフレームワークである。
$gamma$-Benchは8つの古典ゲーム理論シナリオと、LSMの性能を評価するために特別に設計された動的スコアリングスキームを含んでいる。
以上の結果から, GPT-3.5は強い強靭性を示すが, 一般化性は限定的であり, Chain-of-Thoughtのような手法で拡張可能であることが示唆された。
論文 参考訳(メタデータ) (2024-03-18T14:04:47Z) - Are You Sure? Challenging LLMs Leads to Performance Drops in The
FlipFlop Experiment [82.60594940370919]
大規模言語モデル(LLM)のマルチターン動作を研究するためのFlipFlop実験を提案する。
モデルが平均46%の時間で回答を反転させ、全てのモデルが最初の予測と最終予測の間に精度を低下させ、平均17%の低下(FlipFlop効果)を示す。
我々はオープンソースのLLMで微調整実験を行い、合成されたデータに対する微調整は、性能劣化を60%低減させることができるが、サイコファンティックな振る舞いを完全には解決できないことを発見した。
論文 参考訳(メタデータ) (2023-11-14T23:40:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。