論文の概要: Everything is Plausible: Investigating the Impact of LLM Rationales on Human Notions of Plausibility
- arxiv url: http://arxiv.org/abs/2510.08091v1
- Date: Thu, 09 Oct 2025 11:22:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-10 17:54:15.037506
- Title: Everything is Plausible: Investigating the Impact of LLM Rationales on Human Notions of Plausibility
- Title(参考訳): ありとあらゆるものがプラウシブルである―LLMの合理化がプラウシビリティの人間的通知に与える影響を調査
- Authors: Shramay Palta, Peter Rankel, Sarah Wiegreffe, Rachel Rudinger,
- Abstract要約: 本研究では, 人間の可否判断が, 可否判断にどのような影響を及ぼすかについて検討する。
我々は、人間から3000の可否判定と、LLMから13,600の判定を収集する。
- 参考スコア(独自算出の注目度): 29.1433423377339
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We investigate the degree to which human plausibility judgments of multiple-choice commonsense benchmark answers are subject to influence by (im)plausibility arguments for or against an answer, in particular, using rationales generated by LLMs. We collect 3,000 plausibility judgments from humans and another 13,600 judgments from LLMs. Overall, we observe increases and decreases in mean human plausibility ratings in the presence of LLM-generated PRO and CON rationales, respectively, suggesting that, on the whole, human judges find these rationales convincing. Experiments with LLMs reveal similar patterns of influence. Our findings demonstrate a novel use of LLMs for studying aspects of human cognition, while also raising practical concerns that, even in domains where humans are ``experts'' (i.e., common sense), LLMs have the potential to exert considerable influence on people's beliefs.
- Abstract(参考訳): 複数選択コモンセンスベンチマークの解答に対する人間の可否判断が, LLMによって生成される有理性を用いて, 解答に対する弁解可能性議論の影響について検討した。
我々は、人間から3000の可否判定と、LLMから13,600の判定を収集する。
総じて, LLM生成P prop と CON の有理性の存在下でのヒトの有理性評価の上昇と低下が観察され, 全体としては, 人間の判断はこれらの有理性に説得力があることが示唆された。
LLMを用いた実験では、同様の影響パターンが明らかになっている。
本研究は, 人間の認知の側面を研究する上で, LLMの新たな利用方法を示すとともに, 人間の「専門家」である領域(常識)においても, LLMが人々の信念に多大な影響を及ぼす可能性を示唆している。
関連論文リスト
- Persona-Assigned Large Language Models Exhibit Human-Like Motivated Reasoning [5.697110454224871]
人間における推論は、アイデンティティ保護のような根底にあるモチベーションのためにバイアスを起こしやすい。
本研究では,4つの政治的・社会的な属性に8つのペルソナを割り当てることによって,大きな言語モデルにおける動機づけが引き起こされるかどうかを検討する。
論文 参考訳(メタデータ) (2025-06-24T21:35:17Z) - Arbiters of Ambivalence: Challenges of Using LLMs in No-Consensus Tasks [52.098988739649705]
本研究では, LLMのバイアスと限界について, 応答生成器, 判定器, 討論器の3つの役割について検討した。
我々は、様々な先行的曖昧なシナリオを含む例をキュレートすることで、合意なしのベンチマークを開発する。
以上の結果から, LLMは, オープンエンドの回答を生成する際に, 曖昧な評価を行うことができる一方で, 審査員や討論者として採用する場合は, 合意なしのトピックにスタンスを取る傾向が示唆された。
論文 参考訳(メタデータ) (2025-05-28T01:31:54Z) - Take Caution in Using LLMs as Human Surrogates: Scylla Ex Machina [7.155982875107922]
研究は、大規模言語モデル(LLM)が、経済実験、調査、政治談話において、人間の行動と整合した人間的な推論を示す可能性があることを示唆している。
このことから、LLMは社会科学研究において人間の代理やシミュレーションとして使用できると多くの人が提案している。
11~20のマネーリクエストゲームを用いてLCMの推論深度を評価する。
論文 参考訳(メタデータ) (2024-10-25T14:46:07Z) - Investigating Context Effects in Similarity Judgements in Large Language Models [6.421776078858197]
大規模言語モデル(LLM)は、自然言語テキストの理解と生成におけるAIモデルの能力に革命をもたらした。
命令バイアスによる人的判断とLCMのアライメントに関する調査が進行中である。
論文 参考訳(メタデータ) (2024-08-20T10:26:02Z) - Do LLMs exhibit human-like response biases? A case study in survey
design [66.1850490474361]
大規模言語モデル(LLM)が人間の反応バイアスをどの程度反映しているかについて検討する。
アンケート調査では, LLMが人間のような応答バイアスを示すかどうかを評価するためのデータセットとフレームワークを設計した。
9つのモデルに対する総合的な評価は、一般のオープンかつ商用のLCMは、一般的に人間のような振る舞いを反映しないことを示している。
論文 参考訳(メタデータ) (2023-11-07T15:40:43Z) - Perspectives on Large Language Models for Relevance Judgment [56.935731584323996]
大型言語モデル(LLM)は、関連判断を支援することができると主張している。
自動判定が検索システムの評価に確実に利用できるかどうかは不明である。
論文 参考訳(メタデータ) (2023-04-13T13:08:38Z) - Are LLMs the Master of All Trades? : Exploring Domain-Agnostic Reasoning
Skills of LLMs [0.0]
本研究では,大規模言語モデル(LLM)の性能について,様々な推論課題について検討する。
その結果, LLMは類推的, 道徳的推論において優れているが, 空間的推論タスクにおいて, 熟達に苦慮していることが明らかとなった。
論文 参考訳(メタデータ) (2023-03-22T22:53:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。