論文の概要: AI Does Not Alter Perceptions of Text Messages
- arxiv url: http://arxiv.org/abs/2402.01726v2
- Date: Wed, 7 Feb 2024 17:04:31 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-08 18:42:50.725273
- Title: AI Does Not Alter Perceptions of Text Messages
- Title(参考訳): AIはテキストメッセージの認識を変えない
- Authors: N'yoma Diamond
- Abstract要約: 大規模言語モデル(LLM)は、テキスト処理が困難でストレスの多いユーザを支援するのに最適なツールであることが証明されるかもしれない。
AIに関する世論の低さは、AIが支援するテキストメッセージの認識を損なう可能性があることを示唆している。
本研究は, テキストメッセージがAI支援を受けていないという信念が, 意図を伝える能力, 明快さ, 能力にどのように影響するかを考察する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: For many people, anxiety, depression, and other social and mental factors can
make composing text messages an active challenge. To remedy this problem, large
language models (LLMs) may yet prove to be the perfect tool to assist users
that would otherwise find texting difficult or stressful. However, despite
rapid uptake in LLM usage, considerations for their assistive usage in text
message composition have not been explored. A primary concern regarding LLM
usage is that poor public sentiment regarding AI introduces the possibility
that its usage may harm perceptions of AI-assisted text messages, making usage
counter-productive. To (in)validate this possibility, we explore how the belief
that a text message did or did not receive AI assistance in composition alters
its perceived tone, clarity, and ability to convey intent. In this study, we
survey the perceptions of 26 participants on 18 randomly labeled pre-composed
text messages. In analyzing the participants' ratings of message tone, clarity,
and ability to convey intent, we find that there is no statistically
significant evidence that the belief that AI is utilized alters recipient
perceptions. This provides hopeful evidence that LLM-based text message
composition assistance can be implemented without the risk of
counter-productive outcomes.
- Abstract(参考訳): 多くの人にとって、不安、抑うつ、その他の社会的および精神的要因は、テキストメッセージの作成を活発な課題にする可能性がある。
この問題を解決するために、大きな言語モデル(LLMs)は、テキスト処理が困難でストレスの多いユーザを支援するのに最適なツールであることを証明している。
しかし,LLM利用の急速な増加にもかかわらず,テキスト合成における補助的利用の検討は行われていない。
LLMの使用に関する主要な懸念は、AIに関する世論の低さが、その使用がAIが支援するテキストメッセージの認識を損なう可能性を導入し、使用が非生産的になることである。
この可能性を検証するために、テキストメッセージが構成においてAI支援を受けたか、受けていないという信念が、その知覚されたトーン、明快さ、意図を伝える能力を変化させる方法について検討する。
本研究では,ランダムにラベル付けされた18のテキストに対して,26人の参加者の知覚を調査した。
参加者のメッセージトーン、明快さ、意図を伝える能力の分析において、AIを利用するという信念が受信者の知覚を変えるという統計的に有意な証拠は存在しない。
このことは、LLMベースのテキスト合成支援が、反生産的な結果のリスクを伴わずに実装できるという希望的な証拠を提供する。
関連論文リスト
- Beyond Text: Improving LLM's Decision Making for Robot Navigation via
Vocal Cues [22.539790310630618]
この研究は、人間とロボットの相互作用に使用されるテキストベースのLarge Language Models(LLM)の重大な欠点を強調している。
テキストを超えて、これらの音声応答のパラ言語的特徴に重きを置くことで、この欠点に対処することができる。
『Beyond Text』は、ソーシャルロボットナビゲーションとより広範な人間-ロボットインタラクションの進歩を示す。
論文 参考訳(メタデータ) (2024-02-05T20:11:56Z) - Comparing Large Language Model AI and Human-Generated Coaching Messages
for Behavioral Weight Loss [5.824523259910306]
大規模言語モデル(LLM)ベースの人工知能(AI)チャットボットは、よりパーソナライズされた新しいメッセージを提供することができる。
重量挙げ試験では87人の成人が、5ポイントのQuatスケールを使用して10のコーチングメッセージの役に立つと評価した。
論文 参考訳(メタデータ) (2023-12-07T05:45:24Z) - Towards Possibilities & Impossibilities of AI-generated Text Detection:
A Survey [97.33926242130732]
大規模言語モデル(LLM)は、自然言語処理(NLP)の領域に革命をもたらし、人間のようなテキスト応答を生成する能力を持つ。
これらの進歩にもかかわらず、既存の文献のいくつかは、LLMの潜在的な誤用について深刻な懸念を提起している。
これらの懸念に対処するために、研究コミュニティのコンセンサスは、AI生成テキストを検出するアルゴリズムソリューションを開発することである。
論文 参考訳(メタデータ) (2023-10-23T18:11:32Z) - RADAR: Robust AI-Text Detection via Adversarial Learning [69.5883095262619]
RADARはパラフラザーと検出器の対向訓練に基づいている。
パラフレーズの目標は、AIテキスト検出を避けるために現実的なコンテンツを生成することである。
RADARは検出器からのフィードバックを使ってパラフラザーを更新する。
論文 参考訳(メタデータ) (2023-07-07T21:13:27Z) - Referring to Screen Texts with Voice Assistants [5.62305568174015]
われわれの研究は、ユーザーが電話番号、住所、メールアドレス、URL、日付を電話画面で参照するための新しい体験を掘り下げている。
これは、複数の類似したテキストが画面に現れると、特に興味深いものになります。
直接ピクセルを消費するコストが高いため、このシステムはUIから抽出したテキストに依存するように設計されている。
論文 参考訳(メタデータ) (2023-06-10T22:43:16Z) - ChatGPT for Us: Preserving Data Privacy in ChatGPT via Dialogue Text
Ambiguation to Expand Mental Health Care Delivery [52.73936514734762]
ChatGPTは人間のような対話を生成する能力で人気を集めている。
データに敏感なドメインは、プライバシとデータ所有に関する懸念から、ChatGPTを使用する際の課題に直面している。
ユーザのプライバシーを守るためのテキスト曖昧化フレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-19T02:09:52Z) - Does Human Collaboration Enhance the Accuracy of Identifying
LLM-Generated Deepfake Texts? [27.700129124128747]
人間同士のコラボレーションは、ディープフェイクテキストの検出を改善する可能性がある。
ディープフェイクテキストの最も強い指標は、一貫性と一貫性の欠如である。
論文 参考訳(メタデータ) (2023-04-03T14:06:47Z) - Can AI-Generated Text be Reliably Detected? [54.670136179857344]
LLMの規制されていない使用は、盗作、偽ニュースの生成、スパムなど、悪意のある結果をもたらす可能性がある。
最近の研究は、生成されたテキスト出力に存在する特定のモデルシグネチャを使用するか、透かし技術を適用してこの問題に対処しようとしている。
本稿では,これらの検出器は実用シナリオにおいて信頼性が低いことを示す。
論文 参考訳(メタデータ) (2023-03-17T17:53:19Z) - Automatic Detection of Machine Generated Text: A Critical Survey [19.186417923475144]
テキスト生成モデル(TGM)は、人間の言語スタイルに適したテキストを生成する。
TGMは、偽ニュースや偽商品レビューを自動的に生成することで、敵によって誤用される可能性がある。
TGMが生成したテキストと人間のテキストとを区別できる検出器は、そのような誤用を緩和する上で重要な役割を果たす。
論文 参考訳(メタデータ) (2020-11-02T20:59:26Z) - TextHide: Tackling Data Privacy in Language Understanding Tasks [54.11691303032022]
TextHideは、トレーニングを遅くしたり、精度を下げることなく、プライバシー上のリスクを軽減する。
すべての参加者は、盗聴攻撃者がプライベートテキストデータを復元するのを防ぐために、簡単な暗号化ステップを追加する必要がある。
我々は、GLUEベンチマーク上でTextHideを評価し、TextHideが共有勾配や表現に対する攻撃を効果的に防御できることを示す。
論文 参考訳(メタデータ) (2020-10-12T22:22:15Z) - How are you? Introducing stress-based text tailoring [63.128912221732946]
ユーザのストレスレベルに基づいたテキストのカスタマイズについて論じる。
まず, ユーザの行動がストレスの影響を受けやすい実例を示し, 評価と評価にどのツールが使えるかについて議論した後, 文書を整理するための初期手法を提案する。
論文 参考訳(メタデータ) (2020-07-20T09:43:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。