論文の概要: Multi-Cultural Commonsense Knowledge Distillation
- arxiv url: http://arxiv.org/abs/2402.10689v1
- Date: Fri, 16 Feb 2024 13:46:38 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-19 16:03:11.798464
- Title: Multi-Cultural Commonsense Knowledge Distillation
- Title(参考訳): 多文化コモンセンス知識蒸留
- Authors: Tuan-Phong Nguyen, Simon Razniewski, Gerhard Weikum
- Abstract要約: 本稿では,文化知識の高精度・高精度な主張を蒸留する方法であるMANGOについて述べる。
GPT-3.5でMANGO法を実行すると、30Kのコンセプトと11Kのカルチャーに対して167Kの高精度なアサーションが得られる。
MANGOから知識を追加することで、対話応答の全体的な品質、特異性、文化的感受性が向上することがわかった。
- 参考スコア(独自算出の注目度): 34.93079501464277
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite recent progress, large language models (LLMs) still face the
challenge of appropriately reacting to the intricacies of social and cultural
conventions. This paper presents MANGO, a methodology for distilling
high-accuracy, high-recall assertions of cultural knowledge. We judiciously and
iteratively prompt LLMs for this purpose from two entry points, concepts and
cultures. Outputs are consolidated via clustering and generative summarization.
Running the MANGO method with GPT-3.5 as underlying LLM yields 167K
high-accuracy assertions for 30K concepts and 11K cultures, surpassing prior
resources by a large margin. For extrinsic evaluation, we explore augmenting
dialogue systems with cultural knowledge assertions. We find that adding
knowledge from MANGO improves the overall quality, specificity, and cultural
sensitivity of dialogue responses, as judged by human annotators. Data and code
are available for download.
- Abstract(参考訳): 近年の進歩にもかかわらず、大きな言語モデル(LLM)は、社会的・文化的慣習の複雑さに適切に対応するという課題に直面している。
本稿では,文化知識の高精度・高信頼なアサーションを蒸留する手法であるmangoについて述べる。
我々はこの目的のために,2つの視点,概念と文化から LLM を円滑かつ反復的に促す。
出力はクラスタリングと生成要約によって集約される。
GPT-3.5でMANGO法を実行すると、30Kのコンセプトと11Kの文化に対して167Kの高精度なアサーションが得られる。
本稿では,文化知識を付加した対話システムの拡張について検討する。
マンゴーに知識を加えることで、対話反応の全体的な品質、特異性、文化的感受性が向上することがわかった。
データとコードはダウンロード可能だ。
関連論文リスト
- Massively Multi-Cultural Knowledge Acquisition & LM Benchmarking [48.21982147529661]
本稿では,多文化知識獲得のための新しいアプローチを提案する。
本手法は,文化トピックに関するウィキペディア文書からリンクページの広範囲なネットワークへ戦略的にナビゲートする。
私たちの仕事は、AIにおける文化的格差のギャップを深く理解し、橋渡しするための重要なステップです。
論文 参考訳(メタデータ) (2024-02-14T18:16:54Z) - Bridging Cultural Nuances in Dialogue Agents through Cultural Value
Surveys [20.82269206759988]
cuDialogは、文化レンズを使った対話生成のための第一級ベンチマークである。
対話交換から文化的属性を抽出できるベースラインモデルを開発した。
本稿では,対話型エンコーディング機能に文化的次元を組み込むことを提案する。
論文 参考訳(メタデータ) (2024-01-18T19:42:04Z) - Auditing and Mitigating Cultural Bias in LLMs [1.024113475677323]
GPT-4,3.5,3は、英語とプロテスタントのヨーロッパ諸国に類似した文化的価値を示す。
生成的AIの文化的偏見を回避するため,文化マッチングと進行中の文化監査を併用することを提案する。
論文 参考訳(メタデータ) (2023-11-23T16:45:56Z) - Not All Countries Celebrate Thanksgiving: On the Cultural Dominance in
Large Language Models [89.94270049334479]
本稿では,大規模言語モデル(LLM)における文化的優位性について述べる。
LLMは、ユーザーが非英語で尋ねるときに期待する文化とは無関係な、不適切な英語文化関連の回答を提供することが多い。
論文 参考訳(メタデータ) (2023-10-19T05:38:23Z) - KoLA: Carefully Benchmarking World Knowledge of Large Language Models [56.672981891304005]
我々は知識指向LLMアセスメントベンチマーク(KoLA)を構築した。
能力モデリングでは、人間の認知を模倣して知識関連能力の4段階の分類を作成し、19ドルのタスクをカバーしている。
データには、LLMによって事前訓練されたコーパスであるウィキペディアと、継続的に収集される新興コーパスの両方を使用し、目に見えないデータを扱う能力と知識の進化を評価することを目的としています。
論文 参考訳(メタデータ) (2023-06-15T17:20:46Z) - RHO ($\rho$): Reducing Hallucination in Open-domain Dialogues with
Knowledge Grounding [57.46495388734495]
本稿では、知識グラフ(KG)からリンクされたエンティティと関係述語を表現したRHO(rho$)を提案する。
本稿では,(1)テキスト埋め込みと対応するKG埋め込みを組み合わせるための局所知識基盤,(2)注目機構を介してRHOにマルチホップ推論能力を持たせるためのグローバル知識基盤を提案する。
論文 参考訳(メタデータ) (2022-12-03T10:36:34Z) - Extracting Cultural Commonsense Knowledge at Scale [28.856786775318486]
CANDLEは、高品質な文化的常識知識を大規模に抽出するためのエンドツーエンドの方法論である。
3つの領域(地理学、宗教、職業)といくつかの文化的側面の集合体にアサーションをまとめる。
分類に基づくフィルタリングと面白さのスコア付けのための司法手法を含む。
論文 参考訳(メタデータ) (2022-10-14T12:53:57Z) - Learning Robust Real-Time Cultural Transmission without Human Data [82.05222093231566]
人工知能エージェントにおけるゼロショット、高リコール文化伝達を生成する方法を提案する。
我々のエージェントは、事前に収集された人間のデータを使わずに、新しい文脈で人間からリアルタイムの文化的伝達に成功した。
これは、人工知能を開発するアルゴリズムとしての文化進化の道を開くものである。
論文 参考訳(メタデータ) (2022-03-01T19:32:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。