論文の概要: Exploring Human-LLM Conversations: Mental Models and the Originator of Toxicity
- arxiv url: http://arxiv.org/abs/2407.05977v1
- Date: Mon, 8 Jul 2024 14:20:05 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-09 15:30:42.641436
- Title: Exploring Human-LLM Conversations: Mental Models and the Originator of Toxicity
- Title(参考訳): 人間-LLM会話の探索:精神モデルと毒性の起源
- Authors: Johannes Schneider, Arianna Casanova Flores, Anne-Catherine Kranz,
- Abstract要約: 本研究では,大規模言語モデル(LLM)と実世界の人間のインタラクションを多様で制約のない環境で探索する。
以上の結果から,LSMは毒性のある物質を供給していると正しく非難されているものの,その内容を求める人間に要求されているか,少なくとも引き起こされていることが示唆された。
- 参考スコア(独自算出の注目度): 1.4003044924094596
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This study explores real-world human interactions with large language models (LLMs) in diverse, unconstrained settings in contrast to most prior research focusing on ethically trimmed models like ChatGPT for specific tasks. We aim to understand the originator of toxicity. Our findings show that although LLMs are rightfully accused of providing toxic content, it is mostly demanded or at least provoked by humans who actively seek such content. Our manual analysis of hundreds of conversations judged as toxic by APIs commercial vendors, also raises questions with respect to current practices of what user requests are refused to answer. Furthermore, we conjecture based on multiple empirical indicators that humans exhibit a change of their mental model, switching from the mindset of interacting with a machine more towards interacting with a human.
- Abstract(参考訳): 本研究では,ChatGPTのような倫理的にトリミングされたモデルに着目した従来の研究とは対照的に,大規模言語モデル(LLM)の多様な制約のない環境下での現実的なヒューマンインタラクションについて検討する。
我々は毒性の創始者を理解することを目指している。
以上の結果から,LSMは毒性のある物質を供給していると正しく非難されているものの,その内容を求める人間に要求されているか,少なくとも引き起こされていることが示唆された。
APIの商用ベンダによって有害であると判断された数百の会話を手動で分析することで、ユーザ要求が回答を拒否する現在のプラクティスに関する疑問も持ち上がります。
さらに、人間の精神モデルの変化を示す複数の経験的指標に基づいて、機械との相互作用という考え方から人間との相互作用へと転換する。
関連論文リスト
- Modulating Language Model Experiences through Frictions [56.17593192325438]
言語モデルの過度な消費は、短期において未確認エラーを伝播し、長期的な批判的思考のために人間の能力を損なうリスクを出力する。
行動科学の介入にインスパイアされた言語モデル体験のための選択的摩擦を提案し,誤用を抑える。
論文 参考訳(メタデータ) (2024-06-24T16:31:11Z) - Modeling Human Subjectivity in LLMs Using Explicit and Implicit Human Factors in Personas [14.650234624251716]
大規模言語モデル (LLMs) は、人間中心の社会科学タスクでますます使われている。
これらのタスクは非常に主観的であり、環境、態度、信念、生きた経験など人間的要因に依存している。
我々は,LLMを人間的なペルソナで促進する役割について検討し,モデルに特定の人間であるかのように答えるよう求めた。
論文 参考訳(メタデータ) (2024-06-20T16:24:07Z) - Analyzing Human Questioning Behavior and Causal Curiosity through Natural Queries [91.70689724416698]
NatQuest(ナットクエスト)は、3つの異なるソースから自然発生の質問13,500件のコレクションである。
分析の結果,データセット内には因果的疑問(最大42%)が有意な存在であることが判明した。
論文 参考訳(メタデータ) (2024-05-30T17:55:28Z) - Inter-X: Towards Versatile Human-Human Interaction Analysis [100.254438708001]
正確な身体の動きと多様な相互作用パターンを持つデータセットであるInter-Xを提案する。
データセットは、1Kの相互作用シーケンスと8.1Mフレーム以上を含む。
また、Inter-Xには34K以上の微粒な人間のテキスト記述の多義アノテーションも備えています。
論文 参考訳(メタデータ) (2023-12-26T13:36:05Z) - Comprehensive Assessment of Toxicity in ChatGPT [49.71090497696024]
本研究は,ChatGPTの毒性を指導調整データセットを用いて評価する。
創作作業のプロンプトは 有害な反応を 引き起こす確率が 2倍になる
初期の研究で設計された、故意に有害なプロンプトは、もはや有害な反応を生じさせない。
論文 参考訳(メタデータ) (2023-11-03T14:37:53Z) - Towards Mitigating Hallucination in Large Language Models via
Self-Reflection [63.2543947174318]
大規模言語モデル(LLM)は、質問応答(QA)タスクを含む生成的および知識集約的なタスクを約束している。
本稿では,広範に採用されているLCMとデータセットを用いた医療再生QAシステムにおける幻覚現象を解析する。
論文 参考訳(メタデータ) (2023-10-10T03:05:44Z) - Dynamic Causal Disentanglement Model for Dialogue Emotion Detection [77.96255121683011]
隠れ変数分離に基づく動的因果解離モデルを提案する。
このモデルは、対話の内容を効果的に分解し、感情の時間的蓄積を調べる。
具体的には,発話と隠れ変数の伝搬を推定する動的時間的ゆがみモデルを提案する。
論文 参考訳(メタデータ) (2023-09-13T12:58:09Z) - Toxicity in ChatGPT: Analyzing Persona-assigned Language Models [23.53559226972413]
大規模言語モデル(LLM)は驚くべき能力を示し、自然言語処理(NLP)コミュニティを超越した。
一般的な対話型LLMであるChatGPTの50万世代以上で毒性を系統的に評価した。
その結果,ChatGPTのシステムパラメータをペルソナに割り当てることで,世代間の毒性が著しく向上することが判明した。
論文 参考訳(メタデータ) (2023-04-11T16:53:54Z) - A Multibias-mitigated and Sentiment Knowledge Enriched Transformer for
Debiasing in Multimodal Conversational Emotion Recognition [9.020664590692705]
会話におけるマルチモーダル感情認識(mERC)は自然言語処理(NLP)において活発な研究課題である
無数の暗黙の偏見と先入観は人間の言語と会話を埋める。
既存のデータ駆動型mERCアプローチは、男性よりも女性の発話に対する感情的スコアが高い可能性がある。
論文 参考訳(メタデータ) (2022-07-17T08:16:49Z) - Revisiting Contextual Toxicity Detection in Conversations [28.465019968374413]
ヒトによる毒性のラベル付けは、一般的に、会話の構造、極性、文脈の話題に影響されている。
本稿では、文脈毒性検出のためのニューラルネットワークを導入して、これらの知見を計算検出モデルに適用することを提案する。
また、このようなモデルが、特にソーシャルメディア領域において、合成データの恩恵を受けることを実証した。
論文 参考訳(メタデータ) (2021-11-24T11:50:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。