論文の概要: Antisocial behavior towards large language model users: experimental evidence
- arxiv url: http://arxiv.org/abs/2601.09772v1
- Date: Wed, 14 Jan 2026 16:02:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-16 19:43:18.853577
- Title: Antisocial behavior towards large language model users: experimental evidence
- Title(参考訳): 大規模言語モデル利用者に対する反社会的行動--実験的証拠
- Authors: Paweł Niszczota, Cassandra Grützner,
- Abstract要約: 大規模言語モデル(LLM)は、彼らが引き起こした社会的反応に懸念を抱いている。
2段階のオンライン実験では、参加者は、LLMサポートの有無に関わらず、前もってリアルタイムタスクを完了した仲間の利益を減らすために、自身の寄付の一部を費やすことができた。
参加者は平均して、モデルにのみ依存する人々の36%の利益を壊した。
- 参考スコア(独自算出の注目度): 12.971375766774498
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The rapid spread of large language models (LLMs) has raised concerns about the social reactions they provoke. Prior research documents negative attitudes toward AI users, but it remains unclear whether such disapproval translates into costly action. We address this question in a two-phase online experiment (N = 491 Phase II participants; Phase I provided targets) where participants could spend part of their own endowment to reduce the earnings of peers who had previously completed a real-effort task with or without LLM support. On average, participants destroyed 36% of the earnings of those who relied exclusively on the model, with punishment increasing monotonically with actual LLM use. Disclosure about LLM use created a credibility gap: self-reported null use was punished more harshly than actual null use, suggesting that declarations of "no use" are treated with suspicion. Conversely, at high levels of use, actual reliance on the model was punished more strongly than self-reported reliance. Taken together, these findings provide the first behavioral evidence that the efficiency gains of LLMs come at the cost of social sanctions.
- Abstract(参考訳): 大規模言語モデル(LLM)の急速な普及は、彼らが引き起こした社会的反応に対する懸念を引き起こしている。
以前の研究では、AIユーザーに対する否定的な態度が報告されていたが、そのような不承認がコストのかかる行動に変わるかどうかは不明だ。
我々は,2段階のオンライン実験(N = 491 段階II 段階II 段階 I 段階I の目標)でこの問題に対処する。
平均して、参加者はモデルにのみ依存する人々の収益の36%を破壊し、実際のLSM使用と単調に罰が増加した。
自己報告されたnull使用は、実際のnull使用よりも厳格に罰せられ、"no use"の宣言が疑わしいと示唆された。
逆に、高い使用レベルにおいて、モデルへの実際の依存は、自己報告された信頼よりも強く罰せられた。
これらの結果は、LLMの効率性向上が社会制裁の犠牲となる最初の行動的証拠となる。
関連論文リスト
- Beyond Prompt-Induced Lies: Investigating LLM Deception on Benign Prompts [79.1081247754018]
大規模言語モデル(LLM)は、推論、計画、意思決定のタスクに広くデプロイされている。
そこで我々は, 接触探索質問(CSQ)に基づく枠組みを提案し, 騙しの可能性を定量化する。
論文 参考訳(メタデータ) (2025-08-08T14:46:35Z) - Verifying the Verifiers: Unveiling Pitfalls and Potentials in Fact Verifiers [59.168391398830515]
我々は,14のファクトチェックベンチマークのサンプルを用いて,12の事前学習LDMと1つの特殊ファクト検証器を評価した。
データセットにおけるアノテーションエラーとあいまいさに対処することの重要性を強調します。
最上位のパフォーマンスを実現するために、前作でしばしば見落とされがちな、数ショットのインコンテキストの例を持つフロンティアLSM。
論文 参考訳(メタデータ) (2025-06-16T10:32:10Z) - Mitigating Spurious Correlations in LLMs via Causality-Aware Post-Training [57.03005244917803]
大規模言語モデル (LLMs) は、事前学習中に得られた素早い相関関係により、アウト・オブ・ディストリビューション (OOD) のサンプルで失敗することが多い。
ここでは、因果認識後学習(CAPT)を通して、このような素因的相関を緩和することを目的とする。
公式因果推論ベンチマークCLadderと論理推論データセットPrOntoQAの実験により、CAPTで微調整された3Bスケールの言語モデルでは、従来のSFTおよびより大きなLLMを分散処理(ID)およびOODタスクで上回る結果が得られた。
論文 参考訳(メタデータ) (2025-06-11T06:30:28Z) - Do Large Language Models Exhibit Spontaneous Rational Deception? [0.913127392774573]
大規模言語モデル (LLM) は、そのように促されるときの判断に有効である。
しかし、どんな条件で自然に騙されるのか?
本研究は, LLMが生み出す自発誤を, 予め登録した実験プロトコルで評価する。
論文 参考訳(メタデータ) (2025-03-31T23:10:56Z) - Fostering Appropriate Reliance on Large Language Models: The Role of Explanations, Sources, and Inconsistencies [66.30619782227173]
大規模言語モデル(LLMs)は、流動的で説得力のある誤った応答を生成することができる。
ユーザの信頼を形作るLCM応答のいくつかの特徴を同定する。
説明は正しい応答と誤応答の両方に依存することが判明した。
情報源が提供された場合や説明が矛盾している場合の誤った応答への依存度は低い。
論文 参考訳(メタデータ) (2025-02-12T16:35:41Z) - LLM Content Moderation and User Satisfaction: Evidence from Response Refusals in Chatbot Arena [0.0]
倫理的拒絶は、技術的拒絶と標準的反応の両方よりもかなり低い利得が得られることを示す。
LLM設計では,安全性に配慮した動作がユーザの期待と矛盾する可能性がある。
論文 参考訳(メタデータ) (2025-01-04T06:36:44Z) - "I'm Not Sure, But...": Examining the Impact of Large Language Models' Uncertainty Expression on User Reliance and Trust [51.542856739181474]
不確実性の自然言語表現の違いが、参加者の信頼、信頼、全体的なタスクパフォーマンスにどのように影響するかを示す。
その結果, 一人称表情は, 参加者のシステムに対する信頼度を低下させ, 参加者の正確性を高めつつ, システムの回答に同調する傾向にあることがわかった。
以上の結果から,不確実性の自然言語表現の使用は,LLMの過度な依存を軽減するための効果的なアプローチである可能性が示唆された。
論文 参考訳(メタデータ) (2024-05-01T16:43:55Z) - The Adoption and Efficacy of Large Language Models: Evidence From Consumer Complaints in the Financial Industry [2.300664273021602]
本研究は、2015年から2024年までの消費者金融保護局に提出された消費者苦情に対するLarge Language Models(LLMs)の効果について検討する。
LLMの利用は、金融機関から救済を受ける可能性の高まりと関連している。
論文 参考訳(メタデータ) (2023-11-28T04:07:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。