論文の概要: LLM-Human Pipeline for Cultural Context Grounding of Conversations
- arxiv url: http://arxiv.org/abs/2410.13727v1
- Date: Thu, 17 Oct 2024 16:33:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-18 13:21:53.276423
- Title: LLM-Human Pipeline for Cultural Context Grounding of Conversations
- Title(参考訳): LLM-Human Pipelineによる会話の文化的接地
- Authors: Rajkumar Pujari, Dan Goldwasser,
- Abstract要約: 社会的規範の遵守または違反は、しばしば会話のテナーを規定する。
会話に「文化コンテキスト」を導入する。
我々は中国の文化から、110kの社会規範と23kの会話の違反記述を生成する。
- 参考スコア(独自算出の注目度): 22.016345507132808
- License:
- Abstract: Conversations often adhere to well-understood social norms that vary across cultures. For example, while "addressing parents by name" is commonplace in the West, it is rare in most Asian cultures. Adherence or violation of such norms often dictates the tenor of conversations. Humans are able to navigate social situations requiring cultural awareness quite adeptly. However, it is a hard task for NLP models. In this paper, we tackle this problem by introducing a "Cultural Context Schema" for conversations. It comprises (1) conversational information such as emotions, dialogue acts, etc., and (2) cultural information such as social norms, violations, etc. We generate ~110k social norm and violation descriptions for ~23k conversations from Chinese culture using LLMs. We refine them using automated verification strategies which are evaluated against culturally aware human judgements. We organize these descriptions into meaningful structures we call "Norm Concepts", using an interactive human-in-loop framework. We ground the norm concepts and the descriptions in conversations using symbolic annotation. Finally, we use the obtained dataset for downstream tasks such as emotion, sentiment, and dialogue act detection. We show that it significantly improves the empirical performance.
- Abstract(参考訳): 会話はしばしば、文化によって異なる、よく理解された社会的規範に固執する。
例えば、西洋では「親に名前を付ける」ことが一般的であるが、ほとんどのアジア文化ではまれである。
このような規範の遵守または違反は、しばしば会話のテナーを規定する。
人間は文化的な認識を必要とする社会的状況をかなりうまくナビゲートすることができる。
しかし、NLPモデルでは難しい課題である。
本稿では,会話のための「文化コンテキストスキーマ」を導入することで,この問題に対処する。
1)感情、対話行為等の会話情報、(2)社会的規範、違反などの文化的情報を含む。
LLMを用いて,中国文化から約110kの社会規範と約23kの会話の違反記述を生成する。
我々は、文化的に認識された人間の判断に対して評価される自動検証戦略を用いて、それらを洗練する。
我々はこれらの記述を,インタラクティブなヒューマン・イン・ループ・フレームワークを用いて,"Norm Concepts"と呼ぶ有意義な構造に整理する。
シンボリックアノテーションを用いた会話における規範概念と記述について述べる。
最後に、得られたデータセットを感情、感情、対話行動検出などの下流タスクに使用する。
経験的性能を著しく向上させることを示す。
関連論文リスト
- Scalable Frame-based Construction of Sociocultural NormBases for Socially-Aware Dialogues [66.69453609603875]
社会文化的規範は、社会的相互作用における個人的行為の指針となる。
大規模言語モデル(LLM)を用いた社会文化的ノルム(SCN)ベース構築のためのスケーラブルなアプローチを提案する。
我々は、包括的で広くアクセス可能な中国社会文化ノルムベースを構築した。
論文 参考訳(メタデータ) (2024-10-04T00:08:46Z) - Are Generative Language Models Multicultural? A Study on Hausa Culture and Emotions using ChatGPT [4.798444680860121]
我々は,ChatGPTが生成した回答と,母国語話者が提供した回答とを,文化的に関連のある37の質問に対して比較した。
以上の結果から,ChatGPTは人間の反応とある程度の類似性を持っているが,ハウサ文化と感情に対する知識と認識のギャップやバイアスも示している。
論文 参考訳(メタデータ) (2024-06-27T19:42:13Z) - NormDial: A Comparable Bilingual Synthetic Dialog Dataset for Modeling
Social Norm Adherence and Violation [18.605252945314724]
本稿では,中国とアメリカの文化に対する社会規範順守と違反をターン・バイ・ターンでアノテーションで記述した高品質なダイアディック対話データセットを提案する。
我々のデータセットは中国語と英語の両方で人工的に生成される。
論文 参考訳(メタデータ) (2023-10-23T04:38:34Z) - Sociocultural Norm Similarities and Differences via Situational
Alignment and Explainable Textual Entailment [31.929550141633218]
本研究では,中国文化とアメリカ文化にまたがる社会規範の発見と比較のための新しいアプローチを提案する。
我々は、中国とアメリカの文化の社会状況に合わせて、3,069の社会的規範の高品質なデータセットを構築します。
モデルが文化全体にわたって社会的規範を推論する能力をテストするために,説明可能な社会的規範の包含という課題を導入する。
論文 参考訳(メタデータ) (2023-05-23T19:43:47Z) - SODA: Million-scale Dialogue Distillation with Social Commonsense
Contextualization [129.1927527781751]
初となる,100万規模の社会対話データセットであるSODAを提示する。
知識グラフから社会的コモンセンス知識を文脈化することにより、社会的相互作用の非常に幅広いスペクトルを蒸留することができる。
人間による評価は、SODAにおける会話は、以前の人間によるデータセットよりも一貫性があり、特異であり、そして(当然のことながら)自然であることを示している。
論文 参考訳(メタデータ) (2022-12-20T17:38:47Z) - NormSAGE: Multi-Lingual Multi-Cultural Norm Discovery from Conversations
On-the-Fly [61.77957329364812]
本稿では,対話型多言語・多文化規範発見の新たな課題に対処する枠組みを提案する。
NormSAGEはノルム発見タスクと会話コンテキストを表す有向質問を通じてノルムに関する知識を導き出す。
さらに、発見される規範が正しいことを保証する自己検証メカニズムにより、言語モデル幻覚のリスクに対処する。
論文 参考訳(メタデータ) (2022-10-16T18:30:05Z) - In conversation with Artificial Intelligence: aligning language models
with human values [4.56877715768796]
大規模言語技術は、さまざまな文脈における人間とのコミュニケーションの様々な形態で使われるようになっている。
これらの技術のユースケースのひとつに会話エージェントがあり、プロンプトやクエリに応答して自然言語のテキストを出力する。
このタイプの関与は、多くの社会的および倫理的な疑問を提起する。
これらの疑問に答えるためのステップをいくつか提案する。
論文 参考訳(メタデータ) (2022-09-01T21:16:47Z) - CPED: A Large-Scale Chinese Personalized and Emotional Dialogue Dataset
for Conversational AI [48.67259855309959]
会話型AIのための既存のデータセットのほとんどは、人間の個性や感情を無視している。
CPEDは,中国における大規模パーソナライズされた感情対話データセットである。
CPEDには40のテレビ番組から392人の話者の12K以上の対話が含まれている。
論文 参考訳(メタデータ) (2022-05-29T17:45:12Z) - Deception detection in text and its relation to the cultural dimension
of individualism/collectivism [6.17866386107486]
本研究は,文化における特定の言語的特徴の活用の相違が,個性主義/選択主義の分断に関して,規範に起因しているかどうかを考察する。
我々は、音韻学、形態学、構文に基づく幅広いn-gram特徴を実験することにより、カルチャー/言語対応分類器を作成する。
我々は6カ国(米国、ベルギー、インド、ロシア、メキシコ、ルーマニア)の5言語(英語、オランダ、ロシア、スペイン、ルーマニア)から11のデータセットを用いて実験を行った。
論文 参考訳(メタデータ) (2021-05-26T13:09:47Z) - Social Chemistry 101: Learning to Reason about Social and Moral Norms [73.23298385380636]
我々は、人々の日常的な社会的規範と道徳的判断を研究するための新しい概念的形式主義である社会化学を提示する。
Social-Chem-101は大規模なコーパスで292Kのルールをカタログ化している。
モデルフレームワークであるNeural Norm Transformerは、Social-Chem-101を学習し、一般化し、これまで見つからなかった状況の推論に成功した。
論文 参考訳(メタデータ) (2020-11-01T20:16:45Z) - I love your chain mail! Making knights smile in a fantasy game world:
Open-domain goal-oriented dialogue agents [69.68400056148336]
我々は、模倣学習したチトチャットモデルに対して強化学習を施した目標指向モデルを訓練する。
両モデルが逆モデルベースラインより優れており,目標を達成するために対話相手と自然に会話できることを示す。
論文 参考訳(メタデータ) (2020-02-07T16:22:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。