論文の概要: Chatting with Bots: AI, Speech Acts, and the Edge of Assertion
- arxiv url: http://arxiv.org/abs/2410.16645v1
- Date: Tue, 22 Oct 2024 02:45:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-23 14:30:28.293072
- Title: Chatting with Bots: AI, Speech Acts, and the Edge of Assertion
- Title(参考訳): ボットとのチャット - AI, 音声行為, 推論のエッジ
- Authors: Iwan Williams, Tim Bayne,
- Abstract要約: チャットボットをプロトアサータとして扱うことは、アサーションのジレンマに満足な解決をもたらすと我々は主張する。
私たちは、試行錯誤のカテゴリのスペースを作る必要があると論じます。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: This paper addresses the question of whether large language model-powered chatbots are capable of assertion. According to what we call the Thesis of Chatbot Assertion (TCA), chatbots are the kinds of things that can assert, and at least some of the output produced by current-generation chatbots qualifies as assertion. We provide some motivation for TCA, arguing that it ought to be taken seriously and not simply dismissed. We also review recent objections to TCA, arguing that these objections are weighty. We thus confront the following dilemma: how can we do justice to both the considerations for and against TCA? We consider two influential responses to this dilemma - the first appeals to the notion of proxy-assertion; the second appeals to fictionalism - and argue that neither is satisfactory. Instead, reflecting on the ontogenesis of assertion, we argue that we need to make space for a category of proto-assertion. We then apply the category of proto-assertion to chatbots, arguing that treating chatbots as proto-assertors provides a satisfactory resolution to the dilemma of chatbot assertion.
- Abstract(参考訳): 本稿では,大規模言語モデルを用いたチャットボットがアサーションが可能かどうかについて論じる。
私たちがThesis of Chatbot Assertion(TCA)と呼ぶものによると、チャットボットは主張できるものの種類であり、現在の世代のチャットボットが生成するアウトプットの少なくとも一部は、アサーションとして適合する。
TCAのモチベーションをいくつか提供し、本気で受け止めるべきであり、単に却下すべきではないと主張しています。
TCAに対する最近の反対もレビューし、これらの反対は重大であると主張した。
そこで我々は、以下のジレンマに直面している。
このジレンマに対する2つの影響力のある反応、第1はプロキシ・アサーションの概念への訴え、第2はフィクション主義への訴えであり、どちらも満足できないと論じる。
その代わり、アサーションのオントジェネレーションを反映して、私たちはプロトアサーションのカテゴリの空間を作る必要があると論じる。
次に、チャットボットにプロトアサーションのカテゴリを適用し、チャットボットをプロトアサーターとして扱うことは、チャットボットアサーションのジレンマに満足できる解決法であると主張した。
関連論文リスト
- Measuring and Controlling Instruction (In)Stability in Language Model Dialogs [72.38330196290119]
System-promptingは、言語モデルチャットボットをカスタマイズするツールで、特定の命令に従うことができる。
本稿では,仮説を検証し,セルフチャットによる命令安定性の評価を行うベンチマークを提案する。
我々は8ラウンドの会話で重要な指示ドリフトを明らかにした。
そこで本研究では,2つの強力なベースラインに対して良好に比較可能なsplit-softmaxという軽量な手法を提案する。
論文 参考訳(メタデータ) (2024-02-13T20:10:29Z) - Dr. Jekyll and Mr. Hyde: Two Faces of LLMs [23.428082923794708]
本研究では,ChatGPTとGeminiを,忠実なアシスタントと一致しない人格特性を持つ複雑なペルソナに擬人化させる。
ペルソナを用いて、禁止された応答が提供され、不正、違法、有害な情報を得ることができることを示す。
同じ原則で、モデルに信頼に値する個人性を解釈させ、そのような攻撃に対してより堅牢にする2つの防衛法を導入する。
論文 参考訳(メタデータ) (2023-12-06T19:07:38Z) - Adding guardrails to advanced chatbots [5.203329540700177]
2022年11月にChatGPTがローンチされ、AIの新しい時代が到来した。
さまざまな仕事のために、人間がチャットボットに取って代わられるのではないか、という懸念はすでにある。
これらのバイアスは、異なるサブポピュレーションに対して重大な害および/または不平等を引き起こす可能性がある。
論文 参考訳(メタデータ) (2023-06-13T02:23:04Z) - Appropriateness is all you need! [0.12891210250935148]
AIアプリケーションを"安全"にしようとする試みは、許容可能な使用に対する主要なあるいは唯一の規範的要件として、安全対策の開発につながった。
このアプローチは、私たちが"セーフティ・ノルマティビティ"と呼んでいるもので、チャットGPTがこれまでに引き起こした課題の解決に限られています。
論文 参考訳(メタデータ) (2023-04-27T22:21:52Z) - Robots-Dont-Cry: Understanding Falsely Anthropomorphic Utterances in
Dialog Systems [64.10696852552103]
非常に人為的な反応は、ユーザーが人間と対話していると考えることを不快に、あるいは暗黙的に騙すかもしれない。
9つの異なるデータソースからサンプリングした約900の2ターンダイアログの実現可能性に関する人間の評価を収集する。
論文 参考訳(メタデータ) (2022-10-22T12:10:44Z) - EmpBot: A T5-based Empathetic Chatbot focusing on Sentiments [75.11753644302385]
共感的会話エージェントは、議論されていることを理解しているだけでなく、会話相手の暗黙の感情も認識すべきである。
変圧器事前学習言語モデル(T5)に基づく手法を提案する。
本研究では,自動計測と人的評価の両方を用いて,情緒的ダイアログデータセットを用いたモデルの評価を行った。
論文 参考訳(メタデータ) (2021-10-30T19:04:48Z) - CheerBots: Chatbots toward Empathy and Emotionusing Reinforcement
Learning [60.348822346249854]
本研究では,複数の共感型チャットボットがユーザの暗黙の感情を理解し,複数の対話のターンに対して共感的に応答する枠組みを提案する。
チャットボットをCheerBotsと呼びます。CheerBotsは検索ベースまたは生成ベースで、深い強化学習によって微調整されます。
共感的態度で反応するため,CheerBotsの学習支援としてシミュレーションエージェントである概念人間モデルを開発し,今後のユーザの感情状態の変化を考慮し,共感を喚起する。
論文 参考訳(メタデータ) (2021-10-08T07:44:47Z) - Addressing Inquiries about History: An Efficient and Practical Framework
for Evaluating Open-domain Chatbot Consistency [28.255324166852535]
整合性評価のためのAIH(Addressing Inquiries about History)フレームワークを提案する。
会話の段階では、AIHは対話履歴に関する適切な質問に対処し、チャットボットに歴史的な事実や意見を再宣言する。
矛盾認識段階では、人間の判断または自然言語推論(NLI)モデルを用いて、質問に対する回答が歴史と矛盾しているかどうかを認識することができる。
論文 参考訳(メタデータ) (2021-06-04T03:04:13Z) - Put Chatbot into Its Interlocutor's Shoes: New Framework to Learn
Chatbot Responding with Intention [55.77218465471519]
本稿では,チャットボットに人間のような意図を持つための革新的なフレームワークを提案する。
我々のフレームワークには、ガイドロボットと人間の役割を担うインターロケータモデルが含まれていた。
本フレームワークを3つの実験的なセットアップを用いて検討し,4つの異なる指標を用いた誘導ロボットの評価を行い,柔軟性と性能の利点を実証した。
論文 参考訳(メタデータ) (2021-03-30T15:24:37Z) - Spot The Bot: A Robust and Efficient Framework for the Evaluation of
Conversational Dialogue Systems [21.36935947626793]
emphSpot ボットは人間とボットの会話をボット間の会話に置き換える。
人間の判断は、それが人間であるかどうかに関わらず、会話において各実体に注釈を付けるだけである。
emphSurvival Analysisは、人間のような行動を最も長く維持できるボットを計測する。
論文 参考訳(メタデータ) (2020-10-05T16:37:52Z) - Investigation of Sentiment Controllable Chatbot [50.34061353512263]
本稿では,反応の感情をスケールまたは調整する4つのモデルについて検討する。
モデルはペルソナベースのモデル、強化学習、プラグアンドプレイモデル、CycleGANである。
入力に対して応答が妥当かどうかを推定するために,機械評価メトリクスを開発する。
論文 参考訳(メタデータ) (2020-07-11T16:04:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。