論文の概要: Learning to refer informatively by amortizing pragmatic reasoning
- arxiv url: http://arxiv.org/abs/2006.00418v1
- Date: Sun, 31 May 2020 02:52:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-26 12:40:15.686610
- Title: Learning to refer informatively by amortizing pragmatic reasoning
- Title(参考訳): 実践的推論による情報参照の学習
- Authors: Julia White, Jesse Mu, Noah D. Goodman
- Abstract要約: 我々は、話者が時間とともに合理的な音声行為のコストを減らそうとするアイデアを探求する。
我々のアモータライズされたモデルは、様々な文脈で効果的かつ簡潔な言語を迅速に生成できることがわかりました。
- 参考スコア(独自算出の注目度): 35.71540493379324
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A hallmark of human language is the ability to effectively and efficiently
convey contextually relevant information. One theory for how humans reason
about language is presented in the Rational Speech Acts (RSA) framework, which
captures pragmatic phenomena via a process of recursive social reasoning
(Goodman & Frank, 2016). However, RSA represents ideal reasoning in an
unconstrained setting. We explore the idea that speakers might learn to
amortize the cost of RSA computation over time by directly optimizing for
successful communication with an internal listener model. In simulations with
grounded neural speakers and listeners across two communication game datasets
representing synthetic and human-generated data, we find that our amortized
model is able to quickly generate language that is effective and concise across
a range of contexts, without the need for explicit pragmatic reasoning.
- Abstract(参考訳): 人間の言語の特徴は、文脈に関連した情報を効果的かつ効率的に伝達する能力である。
言語に対する人間の推論の1つの理論は、再帰的な社会的推論(Goodman & Frank, 2016)を通じて現実的な現象を捉えるRational Speech Acts(RSA)フレームワークで提示されている。
しかし、RSAは制約のない環境での理想的な推論を表す。
内部リスナモデルとのコミュニケーションを成功させるために直接最適化することで,話者は時間とともにrsa計算のコストを償却することを学べるかもしれない。
合成データと人間の生成データを表す2つのコミュニケーションゲームデータセットの接地型ニューラルスピーカーとリスナーによるシミュレーションでは、明示的な実用的推論を必要とせずに、より効果的で簡潔な言語を迅速に生成できることがわかった。
関連論文リスト
- Are LLMs good pragmatic speakers? [3.4113474745671923]
大規模言語モデル(LLM)は、自然言語のプラグマティクスを含むと仮定されたデータに基づいて訓練されているが、実際にはプラグマティクス話者のように振る舞うのか?
我々は,人間のコミュニケーションにおける実践的推論をモデル化するRational Speech Act (RSA) フレームワークを用いて,この問題に答えようとしている。
LLMのスコアはRSAのスコアと何らかの正の相関があるが、現実的な話者のように振る舞うという十分な証拠はない。
論文 参考訳(メタデータ) (2024-11-03T13:23:18Z) - Regularized Conventions: Equilibrium Computation as a Model of Pragmatic
Reasoning [72.21876989058858]
本稿では,信号ゲームの正規化平衡を探索することにより,発話を生成・理解する実用的な言語理解のモデルを提案する。
このモデルでは、話者とリスナーは文脈的に適切な発話を探索し、ゲーム理論の最適規則に近づき、共有された'デフォルト'セマンティクスに近い意味のマッピングを意味づける。
論文 参考訳(メタデータ) (2023-11-16T09:42:36Z) - Meta-Reasoning: Semantics-Symbol Deconstruction for Large Language Models [34.22393697176282]
実世界の象徴的手法の適用性と適応性を広げるためのメタ推論を提案する。
この方法はLLMに対して、推論に依存しない意味情報を汎用的な記号表現に分解する権限を与える。
我々は、算術、記号、論理的推論といった従来の推論タスクを含む10以上のデータセットと、理論の推論のようなより複雑な対話的推論タスクに関する広範な実験を行う。
論文 参考訳(メタデータ) (2023-06-30T17:38:10Z) - From Word Models to World Models: Translating from Natural Language to
the Probabilistic Language of Thought [124.40905824051079]
言語インフォームド・シンキングのための計算フレームワークである「構成」を合理的に提案する。
我々は、自然言語から確率論的思考言語への文脈感応的なマッピングとして、言語の意味を定式化する。
LLMは、現実的に適切な言語的意味をキャプチャする文脈依存翻訳を生成することができることを示す。
認知的なモチベーションを持つシンボリックモジュールを統合するために、我々のフレームワークを拡張します。
論文 参考訳(メタデータ) (2023-06-22T05:14:00Z) - DiPlomat: A Dialogue Dataset for Situated Pragmatic Reasoning [89.92601337474954]
プラグマティック推論は、実生活における会話でしばしば起こる暗黙の意味を解読する上で重要な役割を担っている。
そこで我々は,現実的な推論と会話理解の場所に関するマシンの能力のベンチマークを目的とした,新しい挑戦であるDiPlomatを紹介した。
論文 参考訳(メタデータ) (2023-06-15T10:41:23Z) - Evaluating statistical language models as pragmatic reasoners [39.72348730045737]
我々は,語学的な発話の意味を推測するために,大規模言語モデルの能力を評価する。
LLMは、複数の複雑な実用的発話の解釈に対して、文脈的、人間的な分布を導出することができる。
結果は,統計的言語モデルの推論能力と,実践的・意味論的解析への応用について報告する。
論文 参考訳(メタデータ) (2023-05-01T18:22:10Z) - On Robustness of Prompt-based Semantic Parsing with Large Pre-trained
Language Model: An Empirical Study on Codex [48.588772371355816]
本稿では,大規模なプロンプトベース言語モデルであるコーデックスの対角的ロバスト性に関する最初の実証的研究について述べる。
この結果から, 最先端の言語モデル(SOTA)は, 慎重に構築された敵の例に対して脆弱であることが示された。
論文 参考訳(メタデータ) (2023-01-30T13:21:00Z) - APOLLO: A Simple Approach for Adaptive Pretraining of Language Models
for Logical Reasoning [73.3035118224719]
本稿では,論理的推論能力を改善した適応事前学習型言語モデルAPOLLOを提案する。
APOLLOはReClorで比較可能であり、LogiQAでベースラインを上回ります。
論文 参考訳(メタデータ) (2022-12-19T07:40:02Z) - Scalable pragmatic communication via self-supervision [14.01704261285015]
エージェントが人間のデータを模倣するのではなく,自己監督を通じて実践的な政策を習得するアーキテクチャと学習プロセスを提案する。
本研究は, 自己超越による実用的スキルを持つ人工エージェントを装備するための, 新たな原理的アプローチを提案する。
論文 参考訳(メタデータ) (2021-08-12T15:28:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。