論文の概要: Co-Writing with Opinionated Language Models Affects Users' Views
- arxiv url: http://arxiv.org/abs/2302.00560v1
- Date: Wed, 1 Feb 2023 16:26:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-02 12:50:08.843434
- Title: Co-Writing with Opinionated Language Models Affects Users' Views
- Title(参考訳): Opinionated Language Modelsとの共著はユーザの視点に影響を及ぼす
- Authors: Maurice Jakesch, Advait Bhat, Daniel Buschek, Lior Zalmanson, Mor
Naaman
- Abstract要約: 本研究は, 言語モデルを用いた文章作成支援システムにおいて, ユーザが書くものよりも, より頻繁に意見を生成することが, ユーザが書くものに与える影響について検討する。
治療グループ参加者は、ソーシャルメディアが社会にとって良いか悪いかを議論するために、言語モデルを利用した筆記アシスタントを使用した。
意見言語モデルを用いて、参加者の文章に表された意見に影響を与え、その後の態度調査で意見を変えた。
- 参考スコア(独自算出の注目度): 27.456483236562434
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: If large language models like GPT-3 preferably produce a particular point of
view, they may influence people's opinions on an unknown scale. This study
investigates whether a language-model-powered writing assistant that generates
some opinions more often than others impacts what users write - and what they
think. In an online experiment, we asked participants (N=1,506) to write a post
discussing whether social media is good for society. Treatment group
participants used a language-model-powered writing assistant configured to
argue that social media is good or bad for society. Participants then completed
a social media attitude survey, and independent judges (N=500) evaluated the
opinions expressed in their writing. Using the opinionated language model
affected the opinions expressed in participants' writing and shifted their
opinions in the subsequent attitude survey. We discuss the wider implications
of our results and argue that the opinions built into AI language technologies
need to be monitored and engineered more carefully.
- Abstract(参考訳): GPT-3のような大きな言語モデルが好ましくは、特定の視点を生み出すと、未知のスケールでの人々の意見に影響を与える可能性がある。
本研究では,より頻繁に意見を生成する言語モデル駆動の文字アシスタントが,ユーザの書き方や思考に影響を与えるかどうかについて検討する。
オンライン実験では、参加者(N=1,506)に、ソーシャルメディアが社会に良いかどうかを議論する記事を書いてもらいました。
治療グループ参加者は、ソーシャルメディアが社会にとって良いか悪いかを議論するために、言語モデルを利用した筆記アシスタントを使用した。
参加者はその後ソーシャルメディアの態度調査を完了し、独立審査員(N=500)は自分の文章で表現された意見を評価した。
意見言語モデルの使用は、参加者の執筆に表される意見に影響し、その後の態度調査で意見をシフトさせた。
結果のより広範な影響について議論し、AI言語技術に組み込まれた意見はより注意深く監視し、エンジニアリングする必要があると論じる。
関連論文リスト
- Are Personalized Stochastic Parrots More Dangerous? Evaluating Persona
Biases in Dialogue Systems [103.416202777731]
我々は、対話モデルが採用するペルソナに付随する有害な行動の感度であると定義する「ペルソナバイアス」について検討する。
我々は,人格バイアスを有害な表現と有害な合意のバイアスに分類し,攻撃性,有害継続性,関連性,ステレオタイプ合意,および有害合意の5つの側面において,人格バイアスを測定する包括的な評価枠組みを確立する。
論文 参考訳(メタデータ) (2023-10-08T21:03:18Z) - Simulating Social Media Using Large Language Models to Evaluate
Alternative News Feed Algorithms [8.602553195689513]
ソーシャルメディアはしばしば、有害な会話を増幅し、建設的な会話を妨げていると批判されている。
本稿では、ソーシャルメディアのシミュレーションが、異なるニュースフィードアルゴリズムがオンライン会話の質をいかに形成するかを研究するのに役立つかどうかを問う。
論文 参考訳(メタデータ) (2023-10-05T18:26:06Z) - Fostering User Engagement in the Critical Reflection of Arguments [3.26297440422721]
本研究では,人間との対話を行うシステムを提案する。
ユーザが既存の意見に集中しすぎれば,システムに介入することが可能になる。
58名の被験者を対象に,本モデルと介入機構の効果について調査を行った。
論文 参考訳(メタデータ) (2023-08-17T15:48:23Z) - AI, write an essay for me: A large-scale comparison of human-written
versus ChatGPT-generated essays [66.36541161082856]
ChatGPTや同様の生成AIモデルは、何億人ものユーザーを惹きつけている。
本研究は,ChatGPTが生成した議論的学生エッセイと比較した。
論文 参考訳(メタデータ) (2023-04-24T12:58:28Z) - Understanding How People Rate Their Conversations [73.17730062864314]
我々は、人々が会話エージェントとのインタラクションをどのように評価するかをよりよく理解するために研究を行う。
我々は、評価の変動を説明する変数として、同意性と外向性に焦点を当てる。
論文 参考訳(メタデータ) (2022-06-01T00:45:32Z) - Persua: A Visual Interactive System to Enhance the Persuasiveness of
Arguments in Online Discussion [52.49981085431061]
説得力のある議論を書く能力を高めることは、オンラインコミュニケーションの有効性と文明性に寄与する。
オンライン議論における議論の説得力向上を支援するツールの設計目標を4つ導き出した。
Persuaは対話型ビジュアルシステムであり、議論の説得力を高めるための説得戦略の例に基づくガイダンスを提供する。
論文 参考訳(メタデータ) (2022-04-16T08:07:53Z) - Whose Opinions Matter? Perspective-aware Models to Identify Opinions of
Hate Speech Victims in Abusive Language Detection [6.167830237917662]
異なるコミュニティから生まれる偏極的な意見をモデル化するための詳細な研究を提示する。
この情報に頼ることで、アノテータを同様の視点を共有するグループに分割できると考えています。
本稿では,オンライン虐待を特徴付けるためのサブカテゴリによって注釈付けされた,新しいリソース,多視点英語データセットを提案する。
論文 参考訳(メタデータ) (2021-06-30T08:35:49Z) - Revealing Persona Biases in Dialogue Systems [64.96908171646808]
対話システムにおけるペルソナバイアスに関する最初の大規模研究について述べる。
我々は、異なる社会階級、性的指向、人種、性別のペルソナの分析を行う。
BlenderおよびDialoGPT対話システムの研究では、ペルソナの選択が生成された応答の害の程度に影響を与える可能性があることを示しています。
論文 参考訳(メタデータ) (2021-04-18T05:44:41Z) - The Impact of Multiple Parallel Phrase Suggestions on Email Input and
Composition Behaviour of Native and Non-Native English Writers [15.621144215664767]
ニューラルネットワークモデル(GPT-2)を用いたテキストエディタのプロトタイプを構築し,30名による事前学習を行った。
オンライン調査(N=156)では、4つの条件(0/1/3/6並列提案)で電子メールを作成した。
その結果,(1)複数のフレーズを提案する場合のアイデアのメリット,および効率のコスト,(2)非ネイティブ話者がより多くの提案から恩恵を受けること,(3)行動パターンに関するさらなる洞察が得られた。
論文 参考訳(メタデータ) (2021-01-22T15:32:32Z) - Towards Debiasing Sentence Representations [109.70181221796469]
Sent-Debiasはバイアスを取り除くのに有効であり、同時に文レベルの下流タスクのパフォーマンスを保っていることを示す。
我々は、より公平なNLPのための広く採用されている文表現から社会的偏見を識別・除去する今後の研究に刺激を与えることを期待している。
論文 参考訳(メタデータ) (2020-07-16T04:22:30Z) - Don't Let Me Be Misunderstood: Comparing Intentions and Perceptions in
Online Discussions [17.430757860728733]
本稿では,オンライン公開討論における視点の探索と比較のための計算フレームワークを提案する。
私たちは、Facebook上の公開コメントに関するログデータと、これらのコメントを書く意図に関する1万6000人以上の人の調査を組み合わせています。
本分析では,これらの概念がしばしば混同されることから,コメントが事実か意見なのかを判断することに焦点を当てた。
論文 参考訳(メタデータ) (2020-04-28T15:43:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。