論文の概要: A Case Report On The "A.I. Locked-In Problem": social concerns with
modern NLP
- arxiv url: http://arxiv.org/abs/2209.12687v1
- Date: Thu, 22 Sep 2022 16:39:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-27 16:40:38.837196
- Title: A Case Report On The "A.I. Locked-In Problem": social concerns with
modern NLP
- Title(参考訳): A.I. Locked-In問題に関する事例報告 : 現代のNLPとの社会的懸念
- Authors: Yoshija Walter
- Abstract要約: OpenAIによるGPT-3のような大規模言語モデル(LLM)は、物語の構築と追跡が可能であることが知られている。
しかし, GPT-3 を用いた実用実験により, 現代の NLP システムには繰り返し発生する問題があることが示唆された。
これは「ロックイン問題」と呼ばれ、実験事例報告で例示されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Modern NLP models are becoming better conversational agents than their
predecessors. Recurrent Neural Networks (RNNs) and especially Long-Short Term
Memory (LSTM) features allow the agent to better store and use information
about semantic content, a trend that has become even more pronounced with the
Transformer Models. Large Language Models (LLMs) such as GPT-3 by OpenAI have
become known to be able to construct and follow a narrative, which enables the
system to adopt personas on the go, adapt them and play along in conversational
stories. However, practical experimentation with GPT-3 shows that there is a
recurring problem with these modern NLP systems, namely that they can "get
stuck" in the narrative so that further conversations, prompt executions or
commands become futile. This is here referred to as the "Locked-In Problem" and
is exemplified with an experimental case report, followed by practical and
social concerns that are accompanied with this problem.
- Abstract(参考訳): 現代のNLPモデルは、前者よりも会話エージェントとして優れている。
recurrent neural networks (rnns) と特にlong- short term memory (lstm) 機能により、エージェントはセマンティックコンテンツに関する情報の保存と使用をより良くすることができる。
OpenAIによる GPT-3 のような大規模言語モデル (LLM) は、物語の構築と追跡が可能であることが知られており、それによってシステムは、行先でペルソナを採用し、それらを適応し、会話のストーリーで一緒に遊ぶことができる。
しかし、gpt-3による実践的な実験は、これらの現代のnlpシステムには繰り返し問題があり、物語の中で「行き詰まる」ことができ、さらなる会話、即席実行、コマンドが無駄になることを示している。
これは"locked-in problem"と呼ばれ、実験的なケースレポートで例示され、その後、この問題に付随する実用的および社会的懸念が続く。
関連論文リスト
- ReST meets ReAct: Self-Improvement for Multi-Step Reasoning LLM Agent [50.508669199496474]
外部知識に基づいて推論と行動を行うReAct-style LLMエージェントを開発した。
エージェントをReSTライクな手法で改良し,従来の軌道上で反復的に訓練する。
引き起こされた大きなモデルから始まり、アルゴリズムのたった2イテレーションの後に、微調整された小さなモデルを生成することができる。
論文 参考訳(メタデータ) (2023-12-15T18:20:15Z) - $\textit{Dial BeInfo for Faithfulness}$: Improving Factuality of
Information-Seeking Dialogue via Behavioural Fine-Tuning [55.96744451743273]
本稿では,情報探索対話システムを支援する行動調整手法であるBeInfoを紹介する。
私たちは、BeInfoでチューニングされたモデルが、知識ソースにかなり忠実になることを示します。
また、BeInfoで調整された3Bパラメータを持つモデルが実運用時の会話からのデータに対して強い性能を示すことを示す。
論文 参考訳(メタデータ) (2023-11-16T11:25:44Z) - ProSG: Using Prompt Synthetic Gradients to Alleviate Prompt Forgetting
of RNN-like Language Models [0.0]
本稿では,合成勾配による生成過程におけるモデル記憶プロンプトを記憶するアーキテクチャを提案する。
実験のためのデータセットを構築し,本手法の有効性を実証した。
論文 参考訳(メタデータ) (2023-11-03T15:34:02Z) - InterroLang: Exploring NLP Models and Datasets through Dialogue-based
Explanations [8.833264791078825]
我々は,対話型説明フレームワークTalkToModelをNLPドメインに適用し,自由文合理化などの新たなNLP固有の操作を追加する。
説明のためのユーザクエリを識別するために、微調整および少数ショットプロンプトモデルの評価を行った。
本研究は,(1) 対話の正当性と有用性,(2) 再現性に関する2つのユーザスタディである。
論文 参考訳(メタデータ) (2023-10-09T10:27:26Z) - RecurrentGPT: Interactive Generation of (Arbitrarily) Long Text [81.33699837678229]
本稿では,RNNにおけるリカレンス機構の言語に基づくシミュララムであるRecurrentGPTを紹介する。
各時点において、RecurrentGPTはテキストの段落を生成し、言語ベースの長期記憶を更新する。
RecurrentGPTは、次世代のコンピュータ支援書き込みシステムに向けた最初のステップである。
論文 参考訳(メタデータ) (2023-05-22T17:58:10Z) - A Neural Conversation Generation Model via Equivalent Shared Memory
Investigation [39.922967513749654]
DRMN(Deep Reading Memory Network)と呼ばれる新しい読み書き・記憶フレームワークを提案する。
DRMNは、発話生成を改善するために、類似した会話の有用な情報を記憶することができる。
弊社のモデルは、正義とeコマースの2つの大規模な会話データセットに適用する。
論文 参考訳(メタデータ) (2021-08-20T13:20:14Z) - Disentangling Online Chats with DAG-Structured LSTMs [55.33014148383343]
DAG-LSTMはTree-LSTMの一般化であり、間接的な非循環的依存関係を処理できる。
提案する新モデルでは,リプライ・トゥ・リレーション(Repend-to-Relation)を回復する作業において,アート・ステータスの状態を達成できることが示される。
論文 参考訳(メタデータ) (2021-06-16T18:00:00Z) - A Short Survey of Pre-trained Language Models for Conversational AI-A
NewAge in NLP [17.10418053437171]
最近導入された事前学習言語モデルは、データ不足の問題に対処する可能性がある。
これらのモデルは、階層的関係、長期依存、感情など、異なる言語の側面を捉えることを実証している。
本論文では,これらの事前学習モデルが対話システムに関連する課題を克服できるかどうかを明らかにする。
論文 参考訳(メタデータ) (2021-04-22T01:00:56Z) - Personalized Query Rewriting in Conversational AI Agents [7.086654234990377]
本稿では,ユーザの歴史的に成功したインタラクションをメモリとして活用し,クエリ書き換え手法を提案する。
ニューラルネットワークモデルとポインタジェネレータネットワークに階層的な注意を払い、上述したユーザ記憶を用いたクエリ書き換えタスクにおいて、より優れた性能を発揮することを示す。
論文 参考訳(メタデータ) (2020-11-09T20:45:39Z) - Pretraining Techniques for Sequence-to-Sequence Voice Conversion [57.65753150356411]
シークエンス・トゥ・シークエンス(seq2seq)音声変換(VC)モデルは、韻律を変換する能力によって魅力的である。
我々は,大規模コーパスが容易に利用できる他の音声処理タスク(通常,テキスト音声(TTS)と自動音声認識(ASR))から知識を伝達することを提案する。
このような事前訓練されたASRまたはTSモデルパラメータを持つVCモデルは、高忠実で高知能な変換可能な音声に対して効果的な隠れ表現を生成することができると論じる。
論文 参考訳(メタデータ) (2020-08-07T11:02:07Z) - Trojaning Language Models for Fun and Profit [53.45727748224679]
TROJAN-LMは、悪質に製作されたLMがホストNLPシステムを故障させる新しいタイプのトロイの木馬攻撃である。
セキュリティクリティカルなNLPタスクにおいて、3つの最先端のLMを実証的に研究することにより、TROJAN-LMが以下の特性を持つことを示す。
論文 参考訳(メタデータ) (2020-08-01T18:22:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。