論文の概要: Putting the Con in Context: Identifying Deceptive Actors in the Game of
Mafia
- arxiv url: http://arxiv.org/abs/2207.02253v1
- Date: Tue, 5 Jul 2022 18:29:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-07 11:58:11.924649
- Title: Putting the Con in Context: Identifying Deceptive Actors in the Game of
Mafia
- Title(参考訳): conをコンテキストとする:マフィアのゲームにおける騙された俳優の識別
- Authors: Samee Ibraheem, Gaoyue Zhou, and John DeNero
- Abstract要約: マフィアゲームを通して話者の役割が言語利用に与える影響を分析する。
分類モデルにより, 偽装選手を正直な者よりも疑わしい者としてランク付けできることを示す。
トレーニングされたモデルを用いてプレイヤーの役割を区別する特徴を識別する手法を提案する。
- 参考スコア(独自算出の注目度): 4.215251065887862
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While neural networks demonstrate a remarkable ability to model linguistic
content, capturing contextual information related to a speaker's conversational
role is an open area of research. In this work, we analyze the effect of
speaker role on language use through the game of Mafia, in which participants
are assigned either an honest or a deceptive role. In addition to building a
framework to collect a dataset of Mafia game records, we demonstrate that there
are differences in the language produced by players with different roles. We
confirm that classification models are able to rank deceptive players as more
suspicious than honest ones based only on their use of language. Furthermore,
we show that training models on two auxiliary tasks outperforms a standard
BERT-based text classification approach. We also present methods for using our
trained models to identify features that distinguish between player roles,
which could be used to assist players during the Mafia game.
- Abstract(参考訳): ニューラルネットワークは言語コンテンツをモデル化する驚くべき能力を示しているが、話者の会話的役割に関連する文脈情報をキャプチャすることは研究のオープン領域である。
本研究では,マフィアのゲームを通して話者の役割が言語利用に与える影響を分析する。
マフィアゲームレコードのデータセットを収集するフレームワークを構築することに加えて、異なる役割を持つプレイヤーが生成する言語に違いがあることを実証する。
分類モデルでは, 言語使用のみに基づいて, 偽装選手を正直な者よりも疑わしい者としてランク付けできることを確認した。
さらに,2つの補助タスクのトレーニングモデルが,標準のbertに基づくテキスト分類アプローチよりも優れていることを示す。
また,マフィアゲームにおいて,プレイヤーの役割を区別する特徴を識別するために,訓練したモデルを用いる手法を提案する。
関連論文リスト
- Understanding Players as if They Are Talking to the Game in a Customized Language: A Pilot Study [3.4333699338998693]
本研究は,ゲームイベントシーケンスのモデル化における言語モデル(LM)の適用について検討する。
生イベントデータをテキストシーケンスに変換し、このデータ上でLongformerモデルを事前学習する。
これらの結果から,ゲームデザインやパーソナライズにおける自己監督型LMの可能性を示す。
論文 参考訳(メタデータ) (2024-10-24T09:59:10Z) - What if Red Can Talk? Dynamic Dialogue Generation Using Large Language Models [0.0]
本稿では,大規模言語モデル(LLM)を用いて動的かつ文脈的に適切な文字相互作用を生成する対話フィラーフレームワークを提案する。
The Final Fantasy VII Remake and Pokemonの環境でこのフレームワークをテストする。
本研究の目的は,よりニュアンスの高いフィラーダイアログ作成を支援することであり,それによってプレイヤーの没入感を高め,RPG体験の全般的向上を図ることである。
論文 参考訳(メタデータ) (2024-07-29T19:12:18Z) - Capturing Minds, Not Just Words: Enhancing Role-Playing Language Models with Personality-Indicative Data [58.92110996840019]
本稿では、パーソナリティを指標としたデータを用いて、ロールプレイング言語モデル(RPLM)を強化することを提案する。
具体的には、心理学的尺度からの質問を活用し、高度なRPAを蒸留し、文字の心を把握した対話を生成する。
実験により,本データセットを用いてトレーニングしたRPLMは,一般人格関連評価と人格関連評価の両面において,高度なロールプレイング能力を示した。
論文 参考訳(メタデータ) (2024-06-27T06:24:00Z) - Large Language Models are Superpositions of All Characters: Attaining
Arbitrary Role-play via Self-Alignment [62.898963074989766]
本稿では,ロールプレイのための自己アライメント手法であるDittoを紹介する。
この方法は4000文字からなるロールプレイトレーニングセットを生成し、現在利用可能なデータセットのスケールを10倍に超える。
本稿では,ロールプレイ領域におけるクロススーパービジョンアライメント実験について紹介する。
論文 参考訳(メタデータ) (2024-01-23T03:56:22Z) - Modeling Cross-Cultural Pragmatic Inference with Codenames Duet [40.52354928048333]
本稿では、簡単な言葉参照ゲームにおいて、社会文化的実践的推論を運用する文化規範データセットについて紹介する。
私たちのデータセットは794のゲームと7,703のターンで構成されており、153のユニークなプレイヤーに分散しています。
実験の結果,背景特性を考慮に入れることで,手掛かりの付与や推測に関連するタスクのモデル性能が大幅に向上することがわかった。
論文 参考訳(メタデータ) (2023-06-04T20:47:07Z) - About latent roles in forecasting players in team sports [47.066729480128856]
チームスポーツは、チームメイトと相手とのインタラクションに影響を与える重要な社会的要素を含んでいる。
RolForはロールベースのForecastingのための新しいエンドツーエンドモデルです。
論文 参考訳(メタデータ) (2023-04-17T13:33:23Z) - Werewolf Among Us: A Multimodal Dataset for Modeling Persuasion
Behaviors in Social Deduction Games [45.55448048482881]
本稿では,説得行動のモデル化のための最初のマルチモーダルデータセットを提案する。
データセットには199の対話文とビデオ,26,647の発話レベルアノテーションの説得戦略,ゲームレベルアノテーションの推論ゲーム結果が含まれている。
論文 参考訳(メタデータ) (2022-12-16T04:52:53Z) - Probing Task-Oriented Dialogue Representation from Language Models [106.02947285212132]
本稿では,タスク指向対話タスクにおいて,どのモデルが本質的に最も有意義な表現を担っているかを明らかにするために,事前学習された言語モデルについて検討する。
我々は、アノテートラベルを教師付き方法で固定された事前学習言語モデルの上に、分類器プローブとしてフィードフォワード層を微調整する。
論文 参考訳(メタデータ) (2020-10-26T21:34:39Z) - Filling the Gap of Utterance-aware and Speaker-aware Representation for
Multi-turn Dialogue [76.88174667929665]
マルチターン対話は、2つ以上の異なる話者の役割から複数の発話からなる。
既存の検索に基づくマルチターン対話モデルでは、事前訓練された言語モデル(PrLM)をエンコーダとして、対話を粗く表現する。
本稿では,対話履歴に係わる効果的な発話認識表現と話者認識表現をモデル化することにより,そのようなギャップを埋める新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-09-14T15:07:19Z) - Disentangled Speech Embeddings using Cross-modal Self-supervision [119.94362407747437]
本研究では,映像における顔と音声の自然な相互同期を生かした自己教師型学習目標を提案する。
我々は,(1)両表現に共通する低レベルの特徴を共有する2ストリームアーキテクチャを構築し,(2)これらの要因を明示的に解消する自然なメカニズムを提供する。
論文 参考訳(メタデータ) (2020-02-20T14:13:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。