論文の概要: Acquiescence Bias in Large Language Models
- arxiv url: http://arxiv.org/abs/2509.08480v1
- Date: Wed, 10 Sep 2025 10:39:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-11 15:16:52.389737
- Title: Acquiescence Bias in Large Language Models
- Title(参考訳): 大規模言語モデルにおける獲得バイアス
- Authors: Daniel Braun,
- Abstract要約: 獲得バイアス(英語: Acquiescence bias)とは、人間が実際の信念とは無関係に、調査における言明に同意する傾向である。
大規模言語モデル(LLM)は比較的小さな入力の変化によって非常に影響を受けやすいことが示されている。
本稿では,異なるモデル,タスク,言語にまたがるLCMにおけるアクセプションバイアスの存在について検討する。
- 参考スコア(独自算出の注目度): 1.6498361958317636
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Acquiescence bias, i.e. the tendency of humans to agree with statements in surveys, independent of their actual beliefs, is well researched and documented. Since Large Language Models (LLMs) have been shown to be very influenceable by relatively small changes in input and are trained on human-generated data, it is reasonable to assume that they could show a similar tendency. We present a study investigating the presence of acquiescence bias in LLMs across different models, tasks, and languages (English, German, and Polish). Our results indicate that, contrary to humans, LLMs display a bias towards answering no, regardless of whether it indicates agreement or disagreement.
- Abstract(参考訳): アクセプションバイアス(Acquiescence bias)、すなわち、人間が実際の信念とは独立して調査の声明に同意する傾向は、よく研究され、文書化されている。
大規模言語モデル(LLM)は入力の比較的小さな変化によって非常に影響を受けており、人為的なデータに基づいて訓練されているため、同様の傾向を示す可能性があると仮定することは妥当である。
本研究では, LLMにおけるアクセプションバイアスの存在について, 様々なモデル, タスク, 言語(英語, ドイツ語, ポーランド語)で検討する。
以上の結果から, LLMは人間とは対照的に, 同意や意見の相違にかかわらず, ノーに答える傾向を示した。
関連論文リスト
- Surface Fairness, Deep Bias: A Comparative Study of Bias in Language Models [45.41676783204022]
大規模言語モデル(LLM)におけるバイアスの様々なプロキシ尺度について検討する。
MMLU (Multi-subject benchmark) を用いた人格評価モデルでは, スコアの無作為かつ大半がランダムな差が生じることがわかった。
LLMアシスタントメモリとパーソナライゼーションの最近の傾向により、これらの問題は異なる角度から開かれている。
論文 参考訳(メタデータ) (2025-06-12T08:47:40Z) - How far can bias go? -- Tracing bias from pretraining data to alignment [54.51310112013655]
本研究では, 事前学習データにおける性別占有バイアスと, LLMにおける性別占有バイアスの相関について検討した。
その結果,事前学習データに存在するバイアスがモデル出力に増幅されることが判明した。
論文 参考訳(メタデータ) (2024-11-28T16:20:25Z) - Bias in the Mirror: Are LLMs opinions robust to their own adversarial attacks ? [22.0383367888756]
大規模言語モデル(LLM)は、トレーニングデータとアライメントプロセスからバイアスを受け継ぎ、微妙な方法で応答に影響を与える。
LLMの2つのインスタンスが自己議論を行う新しいアプローチを導入し、反対の視点でモデルの中立バージョンを説得する。
我々は、モデルがどのようにしっかりとバイアスを保ち、誤った情報を強化するか、有害な視点に移行するかを評価する。
論文 参考訳(メタデータ) (2024-10-17T13:06:02Z) - Bias Similarity Across Large Language Models [32.0365189539138]
大規模言語モデルにおけるバイアスは、これらのシステムがハイテイクなアプリケーションにますますデプロイされているため、依然として重要な関心事である。
機能的類似性としてバイアス類似性を評価し、4つのバイアス次元にまたがる100万以上の構造化プロンプト上で24 LLMを評価した。
フェアネスは、モデルのサイズ、アーキテクチャ、チューニングチューニング、オープンネスによって強く決定されていないことが判明した。
論文 参考訳(メタデータ) (2024-10-15T19:21:14Z) - Do LLMs exhibit human-like response biases? A case study in survey
design [66.1850490474361]
大規模言語モデル(LLM)が人間の反応バイアスをどの程度反映しているかについて検討する。
アンケート調査では, LLMが人間のような応答バイアスを示すかどうかを評価するためのデータセットとフレームワークを設計した。
9つのモデルに対する総合的な評価は、一般のオープンかつ商用のLCMは、一般的に人間のような振る舞いを反映しないことを示している。
論文 参考訳(メタデータ) (2023-11-07T15:40:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。