論文の概要: Guided scenarios with simulated expert personae: a remarkable strategy
to perform cognitive work
- arxiv url: http://arxiv.org/abs/2306.03104v1
- Date: Sat, 3 Jun 2023 00:56:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-07 19:09:03.479786
- Title: Guided scenarios with simulated expert personae: a remarkable strategy
to perform cognitive work
- Title(参考訳): シミュレートされたエキスパート・パーソナライズによる指導シナリオ--認知作業を行うための驚くべき戦略
- Authors: David Van Buren
- Abstract要約: 大きな言語モデル(LLM)は、人間の知識と文学の実質的なコーパスに基づいて訓練され、そのコーパスから大量の事実を生産的に処理する。
驚くべきことに、彼らはコーパス内で捕獲されたペルソナの行動を再現することもできます。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) trained on a substantial corpus of human
knowledge and literature productively work with a large array of facts from
that corpus. Surprisingly, they are also able to re-create the behaviors of
personae that are captured within the corpus. By forming teams of simulated
personae, supplying contexts that set the stage, and providing gentle prompts,
one can move through scenarios that elicit expert behavior to perform
meaningful cognitive work. The power of this strategy is demonstrated with two
examples, one attacking factuality of LLM responses and the other reproducing a
very recently published result in quantum optics.
- Abstract(参考訳): 大きな言語モデル(LLM)は、人間の知識と文学の実質的なコーパスに基づいて訓練され、そのコーパスから大量の事実を扱う。
驚くべきことに、彼らはコーパス内で捕獲されたペルソナの行動を再現することもできます。
シミュレーションされたペルソナのチームを形成し、ステージを設定するコンテキストを提供し、穏やかなプロンプトを提供することで、専門家の振る舞いを導き出し、有意義な認知作業を行うことができる。
この戦略の威力は、llm応答の事実性を攻撃することと、量子光学において最近発表された結果を再現することの2つの例で示される。
関連論文リスト
- Beyond Profile: From Surface-Level Facts to Deep Persona Simulation in LLMs [50.0874045899661]
本稿では,キャラクタの言語パターンと特徴的思考過程の両方を再現するモデルであるキャラクタボットを紹介する。
ケーススタディとしてLu Xunを用いて、17冊のエッセイコレクションから得られた4つのトレーニングタスクを提案する。
これには、外部の言語構造と知識を習得することに焦点を当てた事前訓練タスクと、3つの微調整タスクが含まれる。
言語的正確性と意見理解の3つのタスクにおいて、キャラクタボットを評価し、適応されたメトリクスのベースラインを著しく上回ることを示す。
論文 参考訳(メタデータ) (2025-02-18T16:11:54Z) - Verbalized Bayesian Persuasion [54.55974023595722]
情報設計(ID)は、送信者が受信者の最適な振る舞いにどのように影響し、特定の目的を達成するかを探索する。
本研究は,従来のBPを人間の対話を含む現実のゲームに拡張した,ベイズ説得(BP)における言語化フレームワークを提案する。
勧告書,法廷相互作用,法執行機関などの対話シナリオにおける数値実験により,従来のBPの理論的結果の再現と効果的な説得戦略の発見が可能であることを確認した。
論文 参考訳(メタデータ) (2025-02-03T18:20:10Z) - Eliciting Language Model Behaviors with Investigator Agents [93.34072434845162]
言語モデルは、自由形式のテキストで促されるとき、複雑で多様な振る舞いを示す。
本研究の目的は,特定の対象行動を引き起こすプロンプトを探索することである。
我々は調査員モデルを訓練し、ランダムに目的とする振る舞いを、それらを引き出す出力の多様な分布にマッピングする。
論文 参考訳(メタデータ) (2025-02-03T10:52:44Z) - Large Language Models Need Consultants for Reasoning: Becoming an Expert in a Complex Human System Through Behavior Simulation [5.730580726163518]
大規模言語モデル(LLM)は、数学、法学、コーディング、常識、世界知識といった分野において、人間に匹敵する優れた能力を示してきた。
本稿では,生成エージェントによるシミュレーション技術を活用した新たな推論フレームワークであるMosaic Expert Observation Wall' (MEOW)を提案する。
論文 参考訳(メタデータ) (2024-03-27T03:33:32Z) - Human Simulacra: Benchmarking the Personification of Large Language Models [38.21708264569801]
大規模言語モデル(LLM)は、人間の知性の側面を忠実に模倣するシステムとして認識されている。
本稿では,仮想キャラクタのライフストーリーをゼロから構築するためのフレームワークを提案する。
実験により, 構築したシミュラクラは, 対象キャラクタと一致した擬人化応答を生成できることが実証された。
論文 参考訳(メタデータ) (2024-02-28T09:11:14Z) - In-Context Learning Dynamics with Random Binary Sequences [16.645695664776433]
テキスト内学習のダイナミクスを解析できるフレームワークを提案する。
人間の知覚の認知科学に触発されて、ランダムなバイナリシーケンスをコンテキストとして使用する。
最新のGPT-3.5+モデルでは、一見ランダムな数を生成し、基本形式言語を学習する創発的な能力を見出す。
論文 参考訳(メタデータ) (2023-10-26T17:54:52Z) - Character-LLM: A Trainable Agent for Role-Playing [67.35139167985008]
大規模言語モデル(LLM)は、人間の振る舞いをシミュレートするエージェントとして用いられる。
本稿では, ベートーヴェン, クレオパトラ女王, ユリウス・カエサルなど, LLM に特定の人物として行動するように教えるキャラクタ-LLMを紹介する。
論文 参考訳(メタデータ) (2023-10-16T07:58:56Z) - A Latent-Variable Model for Intrinsic Probing [93.62808331764072]
固有プローブ構築のための新しい潜在変数定式化を提案する。
我々は、事前訓練された表現が言語間交互に絡み合ったモルフォシンタクスの概念を発達させる経験的証拠を見出した。
論文 参考訳(メタデータ) (2022-01-20T15:01:12Z) - Knowledge-Aware Procedural Text Understanding with Multi-Stage Training [110.93934567725826]
本稿では,このような文書の理解とプロセス中のエンティティの状態や場所の追跡を目的とした手続き的テキスト理解の課題に焦点をあてる。
常識的推論の難しさとデータ不足という2つの課題はまだ未解決のままである。
我々は、複数の外部知識を効果的に活用する、KnOwledge-Aware ProceduraL text understAnding (KOALA)モデルを提案する。
論文 参考訳(メタデータ) (2020-09-28T10:28:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。