論文の概要: What are Public Concerns about ChatGPT? A Novel Self-Supervised Neural
Topic Model Tells You
- arxiv url: http://arxiv.org/abs/2309.01522v1
- Date: Mon, 4 Sep 2023 11:05:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-06 18:52:22.870706
- Title: What are Public Concerns about ChatGPT? A Novel Self-Supervised Neural
Topic Model Tells You
- Title(参考訳): ChatGPTについて公共の懸念は?
自己監督型ニューラルトピックモデル
- Authors: Rui Wang, Xing Liu, Yanan Wang and Haiping Huang
- Abstract要約: 最近リリースされた人工知能の会話エージェントChatGPTは、学界と実生活に大きな注目を集めている。
ユーザクエリとソーシャルメディア投稿はどちらも、この高度な対話システムに関する公衆の懸念を表明している。
本稿では,ChatGPTに関する一般の懸念を掘り下げるために,新たな自己スーパービジョンニューラルトピックモデル(SSTM)を提案する。
- 参考スコア(独自算出の注目度): 12.092846854859594
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The recently released artificial intelligence conversational agent, ChatGPT,
has gained significant attention in academia and real life. A multitude of
early ChatGPT users eagerly explore its capabilities and share their opinions
on it via social media. Both user queries and social media posts express public
concerns regarding this advanced dialogue system. To mine public concerns about
ChatGPT, a novel Self-Supervised neural Topic Model (SSTM), which formalizes
topic modeling as a representation learning procedure, is proposed in this
paper. Extensive experiments have been conducted on Twitter posts about ChatGPT
and queries asked by ChatGPT users. And experimental results demonstrate that
the proposed approach could extract higher quality public concerns with
improved interpretability and diversity, surpassing the performance of
state-of-the-art approaches.
- Abstract(参考訳): 最近リリースされた人工知能対話エージェントのchatgptは、学界や実生活で注目を集めている。
初期のChatGPTユーザーは、その能力を熱心に探求し、ソーシャルメディアを通じて意見を共有している。
ユーザクエリとソーシャルメディア投稿はどちらも、この高度な対話システムに関する公衆の懸念を表明している。
本論文では,chatgptに関する一般の関心を喚起するために,トピックモデリングを表現学習手順として定式化する,新しい自己教師付き神経話題モデル(sstm)を提案する。
ChatGPTとChatGPTユーザからの問い合わせについて、Twitterの投稿で大規模な実験が行われた。
また, 提案手法は, 解釈可能性や多様性を向上し, 最先端の手法よりも高い品質の公衆の関心を抽出できることを示した。
関連論文リスト
- Exploring ChatGPT's Capabilities on Vulnerability Management [56.4403395100589]
我々は、70,346のサンプルを含む大規模なデータセットを用いて、完全な脆弱性管理プロセスを含む6つのタスクでChatGPTの機能を探求する。
注目すべき例として、ChatGPTのソフトウェアバグレポートのタイトル生成などのタスクにおける熟練度がある。
以上の結果から,ChatGPTが抱える障害が明らかとなり,将来的な方向性に光を当てた。
論文 参考訳(メタデータ) (2023-11-11T11:01:13Z) - Primacy Effect of ChatGPT [69.49920102917598]
本稿では,ChatGPTの優位性について検討する。
実験と分析により、より信頼性の高いChatGPTベースのソリューションを構築する上で、さらなる洞察が得られればと思っています。
論文 参考訳(メタデータ) (2023-10-20T00:37:28Z) - Deceptive AI Ecosystems: The Case of ChatGPT [8.128368463580715]
ChatGPTは人間のような反応を生成する能力で人気を博している。
本稿では,ChatGPTが社会的プレッシャーが開発・展開に影響を与える現実世界でどのように機能するかを検討する。
本稿では,ChatGPTの擬人的相互作用から生じる倫理的課題について考察する。
論文 参考訳(メタデータ) (2023-06-18T10:36:19Z) - ChatGPT for Us: Preserving Data Privacy in ChatGPT via Dialogue Text
Ambiguation to Expand Mental Health Care Delivery [52.73936514734762]
ChatGPTは人間のような対話を生成する能力で人気を集めている。
データに敏感なドメインは、プライバシとデータ所有に関する懸念から、ChatGPTを使用する際の課題に直面している。
ユーザのプライバシーを守るためのテキスト曖昧化フレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-19T02:09:52Z) - "HOT" ChatGPT: The promise of ChatGPT in detecting and discriminating
hateful, offensive, and toxic comments on social media [2.105577305992576]
生成AIモデルには、有害なコンテンツを理解し、検出する能力がある。
ChatGPTは人間のアノテーションと比較して約80%の精度が得られる。
論文 参考訳(メタデータ) (2023-04-20T19:40:51Z) - ChatGPT-Crawler: Find out if ChatGPT really knows what it's talking
about [15.19126287569545]
本研究では,異なる対話型QAコーパスからChatGPTが生成する応答について検討する。
この研究はBERT類似度スコアを用いて、これらの回答を正しい回答と比較し、自然言語推論(NLI)ラベルを得る。
調査では、ChatGPTが質問に対する誤った回答を提供し、モデルがエラーを起こしやすい領域について洞察を与えている事例を特定した。
論文 参考訳(メタデータ) (2023-04-06T18:42:47Z) - To ChatGPT, or not to ChatGPT: That is the question! [78.407861566006]
本研究は,ChatGPT検出における最新の手法を包括的かつ現代的に評価するものである。
我々は、ChatGPTと人間からのプロンプトからなるベンチマークデータセットをキュレートし、医療、オープンQ&A、ファイナンスドメインからの多様な質問を含む。
評価の結果,既存の手法ではChatGPT生成内容を効果的に検出できないことがわかった。
論文 参考訳(メタデータ) (2023-04-04T03:04:28Z) - Let's have a chat! A Conversation with ChatGPT: Technology,
Applications, and Limitations [0.0]
Chat Generative Pre-trained Transformerは、ChatGPTとしてよく知られたもので、人間に似た文を生成し、一貫性のあるエッセイを書くことができる。
医療、教育、研究など様々な分野におけるChatGPTの応用の可能性を強調した。
有望な結果にもかかわらず、ChatGPTにはいくつかのプライバシーと倫理上の懸念がある。
論文 参考訳(メタデータ) (2023-02-27T14:26:29Z) - Can ChatGPT Understand Too? A Comparative Study on ChatGPT and
Fine-tuned BERT [103.57103957631067]
チャットGPTは、人間の質問に対する流動的で高品質な応答を生成できるため、大きな注目を集めている。
そこで我々は,ChatGPTの理解能力を,最も人気のあるGLUEベンチマークで評価し,より詳細な4種類のBERTスタイルのモデルと比較した。
2)ChatGPTは,感情分析や質問応答タスクにおいて,BERTと同等のパフォーマンスを達成している。
論文 参考訳(メタデータ) (2023-02-19T12:29:33Z) - A Categorical Archive of ChatGPT Failures [47.64219291655723]
OpenAIが開発したChatGPTは、大量のデータを使って訓練され、人間の会話をシミュレートしている。
それは、広範囲の人間の問い合わせに効果的に答える能力のために、大きな注目を集めている。
しかし、ChatGPTの失敗の包括的分析は欠落しており、これが本研究の焦点となっている。
論文 参考訳(メタデータ) (2023-02-06T04:21:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。