論文の概要: Language, Time Preferences, and Consumer Behavior: Evidence from Large
Language Models
- arxiv url: http://arxiv.org/abs/2305.02531v2
- Date: Mon, 12 Jun 2023 06:03:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-14 00:12:52.846078
- Title: Language, Time Preferences, and Consumer Behavior: Evidence from Large
Language Models
- Title(参考訳): 言語、時間選好、消費者行動:大規模言語モデルからの証拠
- Authors: Ali Goli, Amandeep Singh
- Abstract要約: GPT-3.5(以下、GPTと呼ぶ)の複数の言語におけるプロンプトに対する応答を解析した。
以上の結果から,GPTは将来性基準が弱い言語において,より忍耐度が高いことが示唆された。
しかし、さらに分析した結果、早期または後期の報酬の嗜好は報酬ギャップによって体系的に変化しないことが明らかとなった。
- 参考スコア(独自算出の注目度): 2.3526458707956643
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Language has a strong influence on our perceptions of time and rewards. This
raises the question of whether large language models, when asked in different
languages, show different preferences for rewards over time and if their
choices are similar to those of humans. In this study, we analyze the responses
of GPT-3.5 (hereafter referred to as GPT) to prompts in multiple languages,
exploring preferences between smaller, sooner rewards and larger, later
rewards. Our results show that GPT displays greater patience when prompted in
languages with weak future tense references (FTR), such as German and Mandarin,
compared to languages with strong FTR, like English and French. These findings
are consistent with existing literature and suggest a correlation between GPT's
choices and the preferences of speakers of these languages. However, further
analysis reveals that the preference for earlier or later rewards does not
systematically change with reward gaps, indicating a lexicographic preference
for earlier payments. While GPT may capture intriguing variations across
languages, our findings indicate that the choices made by these models do not
correspond to those of human decision-makers.
- Abstract(参考訳): 言語は時間と報酬に対する認識に強い影響を与えます。
これは、大きな言語モデルが、異なる言語で尋ねられると、時間とともに報酬に対する異なる好みを示し、その選択が人間のものと似ているかどうかという疑問を提起する。
本研究では,複数の言語におけるプロンプトに対するgpt-3.5(以下gptと呼ぶ)の反応を分析し,より小さく,より早い報酬とより大きな後続報酬の選好について検討した。
以上の結果から, GPTはドイツ語やマンダリンなどの言語において, 英語やフランス語のような強いFTRを持つ言語と比較して, FTRが弱い言語において, より忍耐力を示すことが示された。
これらの知見は既存の文献と一致しており、GPTの選択と話者の好みの相関関係が示唆されている。
しかし、さらなる分析により、早期または後期の報酬の選好は、報酬ギャップによって体系的に変化せず、早期の支払いに対する語彙選好を示すことが明らかとなった。
GPTは言語間の興味深いバリエーションを捉えることができるが、これらのモデルによる選択は人間の意思決定者とは一致しない。
関連論文リスト
- Uncovering Factor Level Preferences to Improve Human-Model Alignment [58.50191593880829]
PROFILEは、好みを駆動する特定の要因の影響を明らかにし、定量化するフレームワークである。
ProFILE の因子レベル分析は、人間モデルのアライメントと不適応の背後にある 'なぜ' を説明している。
我々は、不整合要因に対処するなど、要因レベルの洞察の活用が、人間の嗜好との整合性をいかに改善するかを実証する。
論文 参考訳(メタデータ) (2024-10-09T15:02:34Z) - ELCoRec: Enhance Language Understanding with Co-Propagation of Numerical and Categorical Features for Recommendation [38.64175351885443]
大規模言語モデルは自然言語処理(NLP)領域で栄えている。
レコメンデーション指向の微調整モデルによって示された知性にもかかわらず、LLMはユーザーの行動パターンを完全に理解するのに苦労している。
既存の作業は、その重要な情報を導入することなく、与えられたテキストデータに対してのみLLMを微調整するだけである。
論文 参考訳(メタデータ) (2024-06-27T01:37:57Z) - A Survey on Human Preference Learning for Large Language Models [81.41868485811625]
近年の多目的大言語モデル(LLM)の急激な増加は、より有能な基礎モデルと人間の意図を優先学習によって整合させることに大きく依存している。
本調査では、選好フィードバックのソースとフォーマット、選好信号のモデリングと使用、および、整列 LLM の評価について述べる。
論文 参考訳(メタデータ) (2024-06-17T03:52:51Z) - Do Large Language Models Learn Human-Like Strategic Preferences? [0.0]
LLMは、戦略的シナリオにおいて人間のような選好判断をすることを学ぶ。
太陽とミストラルは、人間と一致した安定な値に基づく嗜好を示す。
論文 参考訳(メタデータ) (2024-04-11T19:13:24Z) - Comparing Bad Apples to Good Oranges: Aligning Large Language Models via Joint Preference Optimization [105.3612692153615]
大きな言語モデル(LLM)を整列させる一般的な手法は、人間の好みを取得することに依存する。
本稿では,命令応答対に対して協調的に好みを抽出する新たな軸を提案する。
また,LLMのアライメントを大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2024-03-31T02:05:40Z) - Scaling Data Diversity for Fine-Tuning Language Models in Human Alignment [84.32768080422349]
人間の好みの調整は、大きな言語モデルが誤解を招くか有害なコンテンツを生成するのを防ぐ。
本研究では, 微調整後のLLMの最終性能と線形相関を示唆し, 即時多様性の新たな定式化を提案する。
論文 参考訳(メタデータ) (2024-03-17T07:08:55Z) - Whose LLM is it Anyway? Linguistic Comparison and LLM Attribution for
GPT-3.5, GPT-4 and Bard [3.419330841031544]
LLM(Large Language Model)は、人間の品質に類似したテキストを生成する能力を持つ。
我々は,最もポピュラーな3つのLLMから生成されるテキストの語彙,部分音声(POS)分布,依存性分布,感情を多様な入力と比較した。
その結果、言語学的に有意な変化を示し、88%の精度で所与のテキストをLLM起源とみなすことができた。
論文 参考訳(メタデータ) (2024-02-22T13:25:17Z) - Dissecting Human and LLM Preferences [80.55271307662365]
人間は誤りに敏感ではなく、自分の姿勢を支持する反応を好んでおり、モデルが限界を認めている場合、明確な嫌悪を示します。
GPT-4-Turboのような先進的なLCMは、より正確さ、明快さ、無害さを強調している。
嗜好に基づく評価は意図的に操作可能であることを示す。
論文 参考訳(メタデータ) (2024-02-17T14:34:31Z) - Relative Preference Optimization: Enhancing LLM Alignment through Contrasting Responses across Identical and Diverse Prompts [95.09994361995389]
Relative Preference Optimization (RPO) は、同一のプロンプトと関連するプロンプトの両方から、より多く、あまり好まれない応答を識別するように設計されている。
RPOは、大きな言語モデルをユーザの好みに合わせて調整し、トレーニングプロセスにおける適応性を改善する優れた能力を示している。
論文 参考訳(メタデータ) (2024-02-12T22:47:57Z) - On Reality and the Limits of Language Data: Aligning LLMs with Human
Norms [10.02997544238235]
大規模言語モデル (LLMs) は、実践的な応用のために、膨大な自然言語データの言語関連性を利用する。
我々は,この問題を,新規かつ厳密に制御された推論テスト(ART)を用いて探求し,人間の規範とGPT-3のバージョンを比較した。
我々の研究は、データや弱点から直接学習できる常識関係モデルのカテゴリに注目した。
論文 参考訳(メタデータ) (2022-08-25T10:21:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。