論文の概要: AI Does Not Alter Perceptions of Text Messages
- arxiv url: http://arxiv.org/abs/2402.01726v2
- Date: Wed, 7 Feb 2024 17:04:31 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-08 18:42:50.725273
- Title: AI Does Not Alter Perceptions of Text Messages
- Title(参考訳): AIはテキストメッセージの認識を変えない
- Authors: N'yoma Diamond
- Abstract要約: 大規模言語モデル(LLM)は、テキスト処理が困難でストレスの多いユーザを支援するのに最適なツールであることが証明されるかもしれない。
AIに関する世論の低さは、AIが支援するテキストメッセージの認識を損なう可能性があることを示唆している。
本研究は, テキストメッセージがAI支援を受けていないという信念が, 意図を伝える能力, 明快さ, 能力にどのように影響するかを考察する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: For many people, anxiety, depression, and other social and mental factors can
make composing text messages an active challenge. To remedy this problem, large
language models (LLMs) may yet prove to be the perfect tool to assist users
that would otherwise find texting difficult or stressful. However, despite
rapid uptake in LLM usage, considerations for their assistive usage in text
message composition have not been explored. A primary concern regarding LLM
usage is that poor public sentiment regarding AI introduces the possibility
that its usage may harm perceptions of AI-assisted text messages, making usage
counter-productive. To (in)validate this possibility, we explore how the belief
that a text message did or did not receive AI assistance in composition alters
its perceived tone, clarity, and ability to convey intent. In this study, we
survey the perceptions of 26 participants on 18 randomly labeled pre-composed
text messages. In analyzing the participants' ratings of message tone, clarity,
and ability to convey intent, we find that there is no statistically
significant evidence that the belief that AI is utilized alters recipient
perceptions. This provides hopeful evidence that LLM-based text message
composition assistance can be implemented without the risk of
counter-productive outcomes.
- Abstract(参考訳): 多くの人にとって、不安、抑うつ、その他の社会的および精神的要因は、テキストメッセージの作成を活発な課題にする可能性がある。
この問題を解決するために、大きな言語モデル(LLMs)は、テキスト処理が困難でストレスの多いユーザを支援するのに最適なツールであることを証明している。
しかし,LLM利用の急速な増加にもかかわらず,テキスト合成における補助的利用の検討は行われていない。
LLMの使用に関する主要な懸念は、AIに関する世論の低さが、その使用がAIが支援するテキストメッセージの認識を損なう可能性を導入し、使用が非生産的になることである。
この可能性を検証するために、テキストメッセージが構成においてAI支援を受けたか、受けていないという信念が、その知覚されたトーン、明快さ、意図を伝える能力を変化させる方法について検討する。
本研究では,ランダムにラベル付けされた18のテキストに対して,26人の参加者の知覚を調査した。
参加者のメッセージトーン、明快さ、意図を伝える能力の分析において、AIを利用するという信念が受信者の知覚を変えるという統計的に有意な証拠は存在しない。
このことは、LLMベースのテキスト合成支援が、反生産的な結果のリスクを伴わずに実装できるという希望的な証拠を提供する。
関連論文リスト
- TwIPS: A Large Language Model Powered Texting Application to Simplify Conversational Nuances for Autistic Users [0.0]
自閉症の個人はしばしば、感情的な声調や非文学的なニュアンスを伝え、解釈するのに困難を経験する。
大規模言語モデル(LLM)を利用したプロトタイプテキストアプリケーションTwIPSについて述べる。
我々は、AIベースのシミュレーションと会話スクリプトを利用して、TwIPSを8人の自閉症参加者で評価する。
論文 参考訳(メタデータ) (2024-07-25T04:15:54Z) - Assessing AI vs Human-Authored Spear Phishing SMS Attacks: An Empirical Study Using the TRAPD Method [1.099532646524593]
本稿では,スピアフィッシングメッセージ生成におけるLarge Language Models(LLMs)の利用に対する懸念の高まりについて考察する。
我々のパイロット研究は、GPT-4と人間の著者が作成したSMSフィッシング(SMSフィッシング)メッセージの有効性を比較した。
論文 参考訳(メタデータ) (2024-06-18T20:47:16Z) - "I'm Not Sure, But...": Examining the Impact of Large Language Models' Uncertainty Expression on User Reliance and Trust [51.542856739181474]
不確実性の自然言語表現の違いが、参加者の信頼、信頼、全体的なタスクパフォーマンスにどのように影響するかを示す。
その結果, 一人称表情は, 参加者のシステムに対する信頼度を低下させ, 参加者の正確性を高めつつ, システムの回答に同調する傾向にあることがわかった。
以上の結果から,不確実性の自然言語表現の使用は,LLMの過度な依存を軽減するための効果的なアプローチである可能性が示唆された。
論文 参考訳(メタデータ) (2024-05-01T16:43:55Z) - TEXT2TASTE: A Versatile Egocentric Vision System for Intelligent Reading Assistance Using Large Language Model [2.2469442203227863]
組込みRGBカメラとLarge Language Model(LLM)を用いたスマートグラスを用いたインテリジェントリーディングアシスタントを提案する。
眼鏡をかけている人の自我中心から見た映像を処理し、オブジェクト検出と光学文字認識方法を用いてテキスト情報をローカライズする。
LLMはデータを処理し、ユーザはテキストと対話し、所定のクエリに応答し、修正レンズの機能を拡張する。
論文 参考訳(メタデータ) (2024-04-14T13:39:02Z) - Comparing Large Language Model AI and Human-Generated Coaching Messages
for Behavioral Weight Loss [5.824523259910306]
大規模言語モデル(LLM)ベースの人工知能(AI)チャットボットは、よりパーソナライズされた新しいメッセージを提供することができる。
重量挙げ試験では87人の成人が、5ポイントのQuatスケールを使用して10のコーチングメッセージの役に立つと評価した。
論文 参考訳(メタデータ) (2023-12-07T05:45:24Z) - Towards Possibilities & Impossibilities of AI-generated Text Detection:
A Survey [97.33926242130732]
大規模言語モデル(LLM)は、自然言語処理(NLP)の領域に革命をもたらし、人間のようなテキスト応答を生成する能力を持つ。
これらの進歩にもかかわらず、既存の文献のいくつかは、LLMの潜在的な誤用について深刻な懸念を提起している。
これらの懸念に対処するために、研究コミュニティのコンセンサスは、AI生成テキストを検出するアルゴリズムソリューションを開発することである。
論文 参考訳(メタデータ) (2023-10-23T18:11:32Z) - PromptRobust: Towards Evaluating the Robustness of Large Language Models on Adversarial Prompts [76.18347405302728]
本研究は、文字、単語、文、意味といった複数のレベルにわたるプロンプトを標的とした、敵対的なテキスト攻撃を多用する。
相手のプロンプトは、感情分析、自然言語推論、読書理解、機械翻訳、数学の問題解決など様々なタスクに使用される。
以上の結果から,現代の大規模言語モデルでは,敵対的プロンプトに対して頑健ではないことが示唆された。
論文 参考訳(メタデータ) (2023-06-07T15:37:00Z) - ChatGPT for Us: Preserving Data Privacy in ChatGPT via Dialogue Text
Ambiguation to Expand Mental Health Care Delivery [52.73936514734762]
ChatGPTは人間のような対話を生成する能力で人気を集めている。
データに敏感なドメインは、プライバシとデータ所有に関する懸念から、ChatGPTを使用する際の課題に直面している。
ユーザのプライバシーを守るためのテキスト曖昧化フレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-19T02:09:52Z) - Can AI-Generated Text be Reliably Detected? [54.670136179857344]
LLMの規制されていない使用は、盗作、偽ニュースの生成、スパムなど、悪意のある結果をもたらす可能性がある。
最近の研究は、生成されたテキスト出力に存在する特定のモデルシグネチャを使用するか、透かし技術を適用してこの問題に対処しようとしている。
本稿では,これらの検出器は実用シナリオにおいて信頼性が低いことを示す。
論文 参考訳(メタデータ) (2023-03-17T17:53:19Z) - How are you? Introducing stress-based text tailoring [63.128912221732946]
ユーザのストレスレベルに基づいたテキストのカスタマイズについて論じる。
まず, ユーザの行動がストレスの影響を受けやすい実例を示し, 評価と評価にどのツールが使えるかについて議論した後, 文書を整理するための初期手法を提案する。
論文 参考訳(メタデータ) (2020-07-20T09:43:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。