論文の概要: Towards Explainable Strategy Templates using NLP Transformers
- arxiv url: http://arxiv.org/abs/2311.14061v1
- Date: Thu, 23 Nov 2023 15:37:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-27 23:17:44.460095
- Title: Towards Explainable Strategy Templates using NLP Transformers
- Title(参考訳): nlpトランスフォーマーを用いた説明可能な戦略テンプレート作成に向けて
- Authors: Pallavi Bagga, Kostas Stathis
- Abstract要約: 本稿では,エージェントの自動交渉におけるDeep Reinforcement Learning(DRL)から学んだ数学的戦略と,理解可能な自然言語の説明とのギャップを橋渡しする。
本稿では,DRL戦略の一部が,ユーザフレンドリで人間らしい英語の物語に変換される方法について概説する。
- 参考スコア(独自算出の注目度): 5.392400250740552
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This paper bridges the gap between mathematical heuristic strategies learned
from Deep Reinforcement Learning (DRL) in automated agent negotiation, and
comprehensible, natural language explanations. Our aim is to make these
strategies more accessible to non-experts. By leveraging traditional Natural
Language Processing (NLP) techniques and Large Language Models (LLMs) equipped
with Transformers, we outline how parts of DRL strategies composed of parts
within strategy templates can be transformed into user-friendly, human-like
English narratives. To achieve this, we present a top-level algorithm that
involves parsing mathematical expressions of strategy templates, semantically
interpreting variables and structures, generating rule-based primary
explanations, and utilizing a Generative Pre-trained Transformer (GPT) model to
refine and contextualize these explanations. Subsequent customization for
varied audiences and meticulous validation processes in an example illustrate
the applicability and potential of this approach.
- Abstract(参考訳): 本稿では,自動エージェントネゴシエーションにおけるDeep Reinforcement Learning(DRL)から学んだ数学的ヒューリスティック戦略と,理解可能な自然言語説明とのギャップを橋渡しする。
我々の目標は、これらの戦略を非専門家にもっとアクセスできるようにすることです。
トランスフォーマーを備えた従来の自然言語処理(NLP)技術とLarge Language Models(LLM)を活用して,戦略テンプレートを構成するDRL戦略の一部をユーザフレンドリで人間らしい英語の物語に変換する方法について概説する。
これを実現するために、戦略テンプレートの数学的表現解析、変数と構造の意味論的解釈、ルールベースの一次説明の生成、およびこれらの説明を洗練・文脈化するために生成前変換器(GPT)モデルを利用するトップレベルアルゴリズムを提案する。
様々なオーディエンスに対するその後のカスタマイズと、厳密な検証プロセスの例は、このアプローチの適用性と可能性を示している。
関連論文リスト
- Explaining Text Similarity in Transformer Models [52.571158418102584]
説明可能なAIの最近の進歩により、トランスフォーマーの説明の改善を活用することで、制限を緩和できるようになった。
両線形類似性モデルにおける2次説明の計算のために開発された拡張であるBiLRPを用いて、NLPモデルにおいてどの特徴相互作用が類似性を促進するかを調べる。
我々の発見は、異なる意味的類似性タスクやモデルに対するより深い理解に寄与し、新しい説明可能なAIメソッドが、どのようにして深い分析とコーパスレベルの洞察を可能にするかを強調した。
論文 参考訳(メタデータ) (2024-05-10T17:11:31Z) - Contextualization Distillation from Large Language Model for Knowledge
Graph Completion [51.126166442122546]
我々は、差別的かつ生成的なKGCフレームワークと互換性のあるプラグイン・アンド・プレイ方式であるContextualization Distillation戦略を導入する。
提案手法は,大規模言語モデルに対して,コンパクトで構造的な三重項を文脈に富んだセグメントに変換するように指示することから始まる。
多様なデータセットとKGC技術にわたる総合的な評価は、我々のアプローチの有効性と適応性を強調している。
論文 参考訳(メタデータ) (2024-01-28T08:56:49Z) - Explainability for Large Language Models: A Survey [59.67574757137078]
大規模言語モデル(LLM)は、自然言語処理における印象的な能力を示している。
本稿では,トランスフォーマーに基づく言語モデルを記述する手法について,説明可能性の分類法を紹介した。
論文 参考訳(メタデータ) (2023-09-02T22:14:26Z) - On Conditional and Compositional Language Model Differentiable Prompting [75.76546041094436]
プロンプトは、下流タスクでうまく機能するために、凍結した事前訓練言語モデル(PLM)を適応するための効果的な方法であることが示されている。
タスク命令や入力メタデータを連続的なプロンプトに変換することを学習する新しいモデル Prompt Production System (PRopS) を提案する。
論文 参考訳(メタデータ) (2023-07-04T02:47:42Z) - Teaching Probabilistic Logical Reasoning to Transformers [21.335836561959887]
本研究では,不確実なテキストに対する推論において,トランスフォーマーに基づく言語モデルの有効性を評価する。
本稿では,確率的制約学習という,エンドツーエンドのファインチューニング手法を提案する。
論文 参考訳(メタデータ) (2023-05-22T16:08:20Z) - Autoregressive Structured Prediction with Language Models [73.11519625765301]
本稿では, PLM を用いた自己回帰的手法を用いて, モデル構造を行動列として記述する。
我々のアプローチは、私たちが見てきた全ての構造化予測タスクにおいて、新しい最先端を実現する。
論文 参考訳(メタデータ) (2022-10-26T13:27:26Z) - Can Unsupervised Knowledge Transfer from Social Discussions Help
Argument Mining? [25.43442712037725]
本稿では,教師なし,議論型対話型知識の課題を克服するために,新しい伝達学習戦略を提案する。
本研究では,ChangeMyViewのサブレディットからの議論に富んだ社会的な議論を,教師なしの議論型知識の源泉として活用する。
本稿では,提案手法を補完する,コンポーネント間関係予測のための新しいプロンプトベースの戦略を提案する。
論文 参考訳(メタデータ) (2022-03-24T06:48:56Z) - Transformer Grammars: Augmenting Transformer Language Models with
Syntactic Inductive Biases at Scale [31.293175512404172]
Transformer Grammarsは、Transformerの表現力、スケーラビリティ、強力なパフォーマンスを組み合わせたTransformer言語モデルのクラスです。
また, Transformer Grammars は, 構文に敏感な言語モデリング評価指標において, 各種の強力なベースラインを上回ります。
論文 参考訳(メタデータ) (2022-03-01T17:22:31Z) - Contextualized Perturbation for Textual Adversarial Attack [56.370304308573274]
逆例は自然言語処理(NLP)モデルの脆弱性を明らかにする。
本稿では,フロートおよび文法的出力を生成するContextualized AdversaRial Example生成モデルであるCLAREを提案する。
論文 参考訳(メタデータ) (2020-09-16T06:53:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。