論文の概要: Leveraging Language Models and Bandit Algorithms to Drive Adoption of Battery-Electric Vehicles
- arxiv url: http://arxiv.org/abs/2410.23371v1
- Date: Wed, 30 Oct 2024 18:15:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-01 17:02:20.910304
- Title: Leveraging Language Models and Bandit Algorithms to Drive Adoption of Battery-Electric Vehicles
- Title(参考訳): バッテリ・エレクトロニック・ビークルの導入を促進するための言語モデルと帯域アルゴリズムの活用
- Authors: Keiichi Namikoshi, David A. Shamma, Rumen Iliev, Jingchao Fang, Alexandre Filipowicz, Candice L Hogan, Charlene Wu, Nikos Arechiga,
- Abstract要約: 我々は、バッテリー電気自動車の導入を動機づける理解価値に関する先行研究を活用している。
我々は,各研究参加者の価値観に合わせた対話的介入を開発する。
我々は文脈的帯域幅アルゴリズムを用いて、各参加者の人口統計に基づく目標値の学習を行う。
- 参考スコア(独自算出の注目度): 38.38808309924463
- License:
- Abstract: Behavior change interventions are important to coordinate societal action across a wide array of important applications, including the adoption of electrified vehicles to reduce emissions. Prior work has demonstrated that interventions for behavior must be personalized, and that the intervention that is most effective on average across a large group can result in a backlash effect that strengthens opposition among some subgroups. Thus, it is important to target interventions to different audiences, and to present them in a natural, conversational style. In this context, an important emerging application domain for large language models (LLMs) is conversational interventions for behavior change. In this work, we leverage prior work on understanding values motivating the adoption of battery electric vehicles. We leverage new advances in LLMs, combined with a contextual bandit, to develop conversational interventions that are personalized to the values of each study participant. We use a contextual bandit algorithm to learn to target values based on the demographics of each participant. To train our bandit algorithm in an offline manner, we leverage LLMs to play the role of study participants. We benchmark the persuasive effectiveness of our bandit-enhanced LLM against an unaided LLM generating conversational interventions without demographic-targeted values.
- Abstract(参考訳): 行動変化の介入は、排出を減らすために電動車両の採用を含む、幅広い重要な応用において社会的行動を調整するために重要である。
以前の研究は、行動に対する介入はパーソナライズされなければならないこと、そして、大規模なグループ全体で平均的に最も効果的である介入は、一部のサブグループ間の反対を強める反発効果をもたらすことを示した。
したがって、異なるオーディエンスへの介入をターゲットとし、自然な会話スタイルで提示することが重要である。
この文脈では、大きな言語モデル(LLM)のための重要な新興アプリケーションドメインは、振る舞いの変化に対する会話の介入である。
本研究は,電池電気自動車の導入を動機づける理解価値に関する先行研究を活用する。
我々は,LLMの新たな進歩と文脈的包括的包括的包括的手法を用いて,各研究参加者の価値観に合わせた対話的介入を開発する。
我々は文脈的帯域幅アルゴリズムを用いて、各参加者の人口統計に基づく目標値の学習を行う。
帯域幅アルゴリズムをオフラインで学習するために,LLMを活用し,研究参加者の役割を担っている。
人口統計学的対象を含まない対話的介入を生じる未確認のLLMに対して,帯域拡大LLMの説得的効果をベンチマークした。
関連論文リスト
- Evaluating Interventional Reasoning Capabilities of Large Language Models [58.52919374786108]
大規模言語モデル(LLM)は、システムの異なる部分への介入の下で因果効果を推定することができる。
LLMが介入に応じてデータ生成プロセスの知識を正確に更新できるかどうかを実証分析して評価する。
我々は、様々な因果グラフ(例えば、コンバウンディング、仲介)と変数タイプにまたがるベンチマークを作成し、介入に基づく推論の研究を可能にする。
論文 参考訳(メタデータ) (2024-04-08T14:15:56Z) - LLM Agents in Interaction: Measuring Personality Consistency and
Linguistic Alignment in Interacting Populations of Large Language Models [4.706971067968811]
簡単な変数誘導サンプリングアルゴリズムを用いて,大規模言語モデル (LLM) エージェントの2群集団を作成する。
人格検査を行ない、共同作業にエージェントを提出し、異なるプロファイルが会話相手に対して異なるレベルの人格整合性および言語的整合性を示すことを確認する。
論文 参考訳(メタデータ) (2024-02-05T11:05:20Z) - AntEval: Evaluation of Social Interaction Competencies in LLM-Driven
Agents [65.16893197330589]
大規模言語モデル(LLM)は、幅広いシナリオで人間の振る舞いを再現する能力を示した。
しかし、複雑なマルチ文字のソーシャルインタラクションを扱う能力については、まだ完全には研究されていない。
本稿では,新しいインタラクションフレームワークと評価手法を含むマルチエージェントインタラクション評価フレームワーク(AntEval)を紹介する。
論文 参考訳(メタデータ) (2024-01-12T11:18:00Z) - LMRL Gym: Benchmarks for Multi-Turn Reinforcement Learning with Language
Models [56.25156596019168]
本稿では,LMRL-Gymベンチマークを用いて,大規模言語モデル(LLM)のマルチターンRLの評価を行う。
我々のベンチマークは8つの異なる言語タスクで構成されており、複数ラウンドの言語相互作用が必要であり、オープンエンド対話やテキストゲームにおける様々なタスクをカバーする。
論文 参考訳(メタデータ) (2023-11-30T03:59:31Z) - Zero-Shot Goal-Directed Dialogue via RL on Imagined Conversations [70.7884839812069]
大規模言語モデル(LLM)は、多くの自然言語タスクに対する強力で一般的な解決策として登場した。
しかしながら、言語生成の最も重要なアプリケーションの多くは対話的であり、エージェントは望ましい結果に達するために相手と話し合わなければならない。
本研究では,そのような目標指向対話に対して,RLでLLMを適応させる新しい手法について検討する。
論文 参考訳(メタデータ) (2023-11-09T18:45:16Z) - Offline Reinforcement Learning for Mixture-of-Expert Dialogue Management [36.254564021059515]
強化学習(Reinforcement Learning, RL)は, 筋力のない対話管理(DM)エージェントを開発する上で大きな期待を抱いている。
我々は,近年のMixture-of-Expert Language Models(MoE-LMs)を活用した対話計画のための多種多様なRLアルゴリズムを開発した。
提案手法は,MoE-LM構造を利用して,アクション空間のサイズを大幅に削減し,RLベースのDMの有効性を向上する。
論文 参考訳(メタデータ) (2023-02-21T18:02:20Z) - Important Object Identification with Semi-Supervised Learning for
Autonomous Driving [37.654878298744855]
本稿では,エゴセントリック駆動シナリオにおける重要な物体識別のための新しい手法を提案する。
モデルが無制限なラベル付きデータから学習できるようにするための,半教師付き学習パイプラインを提案する。
私たちのアプローチはルールベースのベースラインよりも大きなマージンで優れています。
論文 参考訳(メタデータ) (2022-03-05T01:23:13Z) - Understanding and Shifting Preferences for Battery Electric Vehicles [4.569915979977171]
我々は、個人統計に基づく介入のパーソナライズ方法に注目し、バッテリー電気自動車(BEV)に対して消費者の嗜好をより肯定的にシフトさせる。
そこで本稿では,バリアやモチベータなど,BEV導入に影響を与えるパーソナライズされた要因を特定することを提案する。
本稿では,これらの要因を予測し,最も頻繁な要因を常に予測するよりも性能がよいことを示す。
論文 参考訳(メタデータ) (2022-02-09T00:37:40Z) - Effective Unsupervised Domain Adaptation with Adversarially Trained
Language Models [54.569004548170824]
注意的なマスキング戦略は、マスキングされた言語モデルの知識ギャップを橋渡しできることを示す。
本稿では,これらのトークンを逆さまにマスキングすることで効果的なトレーニング戦略を提案する。
論文 参考訳(メタデータ) (2020-10-05T01:49:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。