論文の概要: AI in the Gray: Exploring Moderation Policies in Dialogic Large Language
Models vs. Human Answers in Controversial Topics
- arxiv url: http://arxiv.org/abs/2308.14608v1
- Date: Mon, 28 Aug 2023 14:23:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-29 13:35:25.013602
- Title: AI in the Gray: Exploring Moderation Policies in Dialogic Large Language
Models vs. Human Answers in Controversial Topics
- Title(参考訳): AI in the Gray: 対話型大言語モデルにおけるモデレーションポリシと議論トピックにおける人間の回答
- Authors: Vahid Ghafouri, Vibhor Agarwal, Yong Zhang, Nishanth Sastry, Jose
Such, Guillermo Suarez-Tangil
- Abstract要約: 宗教」や「性同一性」、「言論の自由」や「平等」といった論争的な話題は対立の源となっている。
このような不当な質問にChatGPTを露出させることで、その認識レベルを理解し、既存のモデルが社会・政治・経済のバイアスにさらされているかどうかを理解することを目指している。
- 参考スコア(独自算出の注目度): 7.444967232238375
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The introduction of ChatGPT and the subsequent improvement of Large Language
Models (LLMs) have prompted more and more individuals to turn to the use of
ChatBots, both for information and assistance with decision-making. However,
the information the user is after is often not formulated by these ChatBots
objectively enough to be provided with a definite, globally accepted answer.
Controversial topics, such as "religion", "gender identity", "freedom of
speech", and "equality", among others, can be a source of conflict as partisan
or biased answers can reinforce preconceived notions or promote disinformation.
By exposing ChatGPT to such debatable questions, we aim to understand its level
of awareness and if existing models are subject to socio-political and/or
economic biases. We also aim to explore how AI-generated answers compare to
human ones. For exploring this, we use a dataset of a social media platform
created for the purpose of debating human-generated claims on polemic subjects
among users, dubbed Kialo.
Our results show that while previous versions of ChatGPT have had important
issues with controversial topics, more recent versions of ChatGPT
(gpt-3.5-turbo) are no longer manifesting significant explicit biases in
several knowledge areas. In particular, it is well-moderated regarding economic
aspects. However, it still maintains degrees of implicit libertarian leaning
toward right-winged ideals which suggest the need for increased moderation from
the socio-political point of view. In terms of domain knowledge on
controversial topics, with the exception of the "Philosophical" category,
ChatGPT is performing well in keeping up with the collective human level of
knowledge. Finally, we see that sources of Bing AI have slightly more tendency
to the center when compared to human answers. All the analyses we make are
generalizable to other types of biases and domains.
- Abstract(参考訳): chatgptの導入とその後の大型言語モデル(llm)の改善により、情報と意思決定の支援の両方のために、チャットボットの使用に目を向ける人がますます増えている。
しかし、ユーザーがフォローしている情報は、明確でグローバルに受け入れられた回答を提供するのに十分客観的にこれらのチャットボットによって定式化されないことが多い。
宗教」や「性同一性」、「言論の自由」や「平等」といった論争の話題は、偏見や偏見のある答えが先入観を補強したり、偽情報を広めたりすることで対立の源となる。
このような議論の余地のある質問にchatgptを露出させることで、その認識のレベルと、既存のモデルが社会・政治・経済バイアスの対象であるかどうかを理解することを目指している。
また、AIが生成する回答と人間の回答の対比についても検討する。
これを調べるために、私たちはkialoと呼ばれる、ユーザ間でポーラミックな対象に対する人為的なクレームを議論するために作られたソーシャルメディアプラットフォームのデータセットを使用します。
以上の結果から,従来のChatGPTでは議論の的となっているトピックに重要な問題があったが,近年のChatGPT(gpt-3.5-turbo)ではいくつかの知識領域で顕著な偏見がみられなくなった。
特に経済面ではよく調整されている。
しかし、社会的・政治的観点からのモデレーションの増加の必要性を示唆する右派イデアルへの暗黙のリバタリアンの傾倒の程度は維持されている。
論争を巻き起こすトピックに関するドメイン知識に関しては、"哲学的"なカテゴリを除いて、ChatGPTは人間の集合的知識レベルに順応する上で、うまく機能している。
最後に、Bing AIの情報源は人間の回答に比べて、中心にわずかに傾向があることが分かる。
解析はすべて、他の種類のバイアスや領域に一般化可能である。
関連論文リスト
- In Generative AI we Trust: Can Chatbots Effectively Verify Political
Information? [39.58317527488534]
本稿では,2つの大規模言語モデル(LLM)ベースのチャットボットであるChatGPTとBing Chatの比較分析を行い,政治的情報の正確性を検出する。
AI監査手法を使用して、新型コロナウイルス、ロシアによるウクライナに対する攻撃、ホロコースト、気候変動、LGBTQ+関連の議論の5つのトピックについて、チャットボットが真、偽、および境界線をどう評価するかを調査する。
その結果, ベースライン精度評価タスクにおけるChatGPTの性能が向上し, 72%のケースが事前学習なしで言語平均で正しく評価された。
論文 参考訳(メタデータ) (2023-12-20T15:17:03Z) - Critical Role of Artificially Intelligent Conversational Chatbot [0.0]
本稿では,ChatGPTの倫理的意味を学術的文脈に含めるシナリオについて考察する。
本稿では、不適切な使用を防止し、責任あるAIインタラクションを促進することを目的としたアーキテクチャソリューションを提案する。
論文 参考訳(メタデータ) (2023-10-31T14:08:07Z) - Primacy Effect of ChatGPT [69.49920102917598]
本稿では,ChatGPTの優位性について検討する。
実験と分析により、より信頼性の高いChatGPTベースのソリューションを構築する上で、さらなる洞察が得られればと思っています。
論文 参考訳(メタデータ) (2023-10-20T00:37:28Z) - Public Attitudes Toward ChatGPT on Twitter: Sentiments, Topics, and
Occupations [1.6466986427682635]
感情分析などの自然言語処理技術を適用し,ChatGPTに対する公衆の態度を検討した。
私たちの感情分析の結果、全体の感情は肯定的であり、ネガティブな感情は時間の経過とともに減少していたことが示唆された。
私たちのトピックモデルは、最も人気のあるトピックが、教育、バード、検索エンジン、OpenAI、マーケティング、サイバーセキュリティであることを示している。
論文 参考訳(メタデータ) (2023-06-22T15:10:18Z) - Adding guardrails to advanced chatbots [5.203329540700177]
2022年11月にChatGPTがローンチされ、AIの新しい時代が到来した。
さまざまな仕事のために、人間がチャットボットに取って代わられるのではないか、という懸念はすでにある。
これらのバイアスは、異なるサブポピュレーションに対して重大な害および/または不平等を引き起こす可能性がある。
論文 参考訳(メタデータ) (2023-06-13T02:23:04Z) - ChatGPT for Us: Preserving Data Privacy in ChatGPT via Dialogue Text
Ambiguation to Expand Mental Health Care Delivery [52.73936514734762]
ChatGPTは人間のような対話を生成する能力で人気を集めている。
データに敏感なドメインは、プライバシとデータ所有に関する懸念から、ChatGPTを使用する際の課題に直面している。
ユーザのプライバシーを守るためのテキスト曖昧化フレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-19T02:09:52Z) - AI, write an essay for me: A large-scale comparison of human-written
versus ChatGPT-generated essays [66.36541161082856]
ChatGPTや同様の生成AIモデルは、何億人ものユーザーを惹きつけている。
本研究は,ChatGPTが生成した議論的学生エッセイと比較した。
論文 参考訳(メタデータ) (2023-04-24T12:58:28Z) - To ChatGPT, or not to ChatGPT: That is the question! [78.407861566006]
本研究は,ChatGPT検出における最新の手法を包括的かつ現代的に評価するものである。
我々は、ChatGPTと人間からのプロンプトからなるベンチマークデータセットをキュレートし、医療、オープンQ&A、ファイナンスドメインからの多様な質問を含む。
評価の結果,既存の手法ではChatGPT生成内容を効果的に検出できないことがわかった。
論文 参考訳(メタデータ) (2023-04-04T03:04:28Z) - Is ChatGPT a General-Purpose Natural Language Processing Task Solver? [113.22611481694825]
大規模言語モデル(LLM)は、さまざまな自然言語処理(NLP)タスクをゼロショットで実行できることを実証している。
近年、ChatGPTのデビューは自然言語処理(NLP)コミュニティから大きな注目を集めている。
ChatGPTが多くのNLPタスクをゼロショットで実行できるジェネラリストモデルとして機能するかどうかはまだ分かっていない。
論文 参考訳(メタデータ) (2023-02-08T09:44:51Z) - A Categorical Archive of ChatGPT Failures [47.64219291655723]
OpenAIが開発したChatGPTは、大量のデータを使って訓練され、人間の会話をシミュレートしている。
それは、広範囲の人間の問い合わせに効果的に答える能力のために、大きな注目を集めている。
しかし、ChatGPTの失敗の包括的分析は欠落しており、これが本研究の焦点となっている。
論文 参考訳(メタデータ) (2023-02-06T04:21:59Z) - The political ideology of conversational AI: Converging evidence on
ChatGPT's pro-environmental, left-libertarian orientation [0.0]
OpenAIは、最先端の対話モデルであるChatGPTを導入した。
本稿では,民主社会の最も重要な意思決定プロセスである政治選挙に焦点を当てる。
われわれはChatGPTの環境的、左自由主義的イデオロギーを明らかにする。
論文 参考訳(メタデータ) (2023-01-05T07:13:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。