論文の概要: How are you? Introducing stress-based text tailoring
- arxiv url: http://arxiv.org/abs/2007.09970v1
- Date: Mon, 20 Jul 2020 09:43:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-08 14:14:30.011446
- Title: How are you? Introducing stress-based text tailoring
- Title(参考訳): 気分はどうですか。
ストレスに基づくテキスト調整の導入
- Authors: Simone Balloccu, Ehud Reiter, Alexandra Johnstone, Claire Fyfe
- Abstract要約: ユーザのストレスレベルに基づいたテキストのカスタマイズについて論じる。
まず, ユーザの行動がストレスの影響を受けやすい実例を示し, 評価と評価にどのツールが使えるかについて議論した後, 文書を整理するための初期手法を提案する。
- 参考スコア(独自算出の注目度): 63.128912221732946
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Can stress affect not only your life but also how you read and interpret a
text? Healthcare has shown evidence of such dynamics and in this short paper we
discuss customising texts based on user stress level, as it could represent a
critical factor when it comes to user engagement and behavioural change. We
first show a real-world example in which user behaviour is influenced by
stress, then, after discussing which tools can be employed to assess and
measure it, we propose an initial method for tailoring the document by
exploiting complexity reduction and affect enforcement. The result is a short
and encouraging text which requires less commitment to be read and understood.
We believe this work in progress can raise some interesting questions on a
topic that is often overlooked in NLG.
- Abstract(参考訳): ストレスは人生だけでなく、テキストを読み、解釈する方法にも影響しますか?
この短い論文では、ユーザのエンゲージメントや行動の変化に関して重要な要因となる可能性があるため、ユーザのストレスレベルに基づいたテキストのカスタマイズについて論じる。
まず, ユーザの行動がストレスの影響を受けやすい実例を示し, 評価と評価にどのツールを使用できるかについて議論した後, 複雑さの低減と強制力への影響を生かして文書を調整するための初期手法を提案する。
その結果、読みやすくて励ましやすいテキストとなり、読みやすく理解しやすくなります。
現在進行中のこの作業は、NLGでしばしば見過ごされるトピックに関する興味深い疑問を提起する可能性があると考えています。
関連論文リスト
- StressPrompt: Does Stress Impact Large Language Models and Human Performance Similarly? [7.573284169975824]
本研究では,Large Language Models (LLMs) がヒトに類似したストレス応答を示すかを検討する。
我々はストレスプロンプトと呼ばれる新しいプロンプトを開発し、様々なレベルのストレスを誘発するように設計された。
この結果は、LLMが人間と同様に、Yerkes-Dodson法則と一致して、適度なストレスの下で最適に機能することを示唆している。
論文 参考訳(メタデータ) (2024-09-14T08:32:31Z) - CoS: Enhancing Personalization and Mitigating Bias with Context Steering [5.064910647314323]
コンテキストは大きな言語モデル(LLM)の応答を著しく形作ることができる
本研究では,自動回帰LDMを推論時に容易に適用可能なトレーニング不要な手法であるContext Steering (CoS)を提案する。
モデルバイアスを低減するために、よりパーソナライズを向上し、不要な影響を緩和するために、文脈の影響を増幅することを含む、CoSの様々な応用を紹介した。
論文 参考訳(メタデータ) (2024-05-02T22:37:38Z) - AI Does Not Alter Perceptions of Text Messages [0.0]
大規模言語モデル(LLM)は、テキスト処理が困難でストレスの多いユーザを支援するのに最適なツールであることが証明されるかもしれない。
AIに関する世論の低さは、AIが支援するテキストメッセージの認識を損なう可能性があることを示唆している。
本研究は, テキストメッセージがAI支援を受けていないという信念が, 意図を伝える能力, 明快さ, 能力にどのように影響するかを考察する。
論文 参考訳(メタデータ) (2024-01-27T14:32:12Z) - PsyCoT: Psychological Questionnaire as Powerful Chain-of-Thought for
Personality Detection [50.66968526809069]
PsyCoTと呼ばれる新しい人格検出手法を提案する。これは、個人がマルチターン対話方式で心理的質問を完遂する方法を模倣するものである。
実験の結果,PsyCoTは人格検出におけるGPT-3.5の性能とロバスト性を大幅に向上させることがわかった。
論文 参考訳(メタデータ) (2023-10-31T08:23:33Z) - Editing Personality for Large Language Models [73.59001811199823]
本稿では,Large Language Models (LLMs) の性格特性の編集に焦点をあてた革新的なタスクを紹介する。
このタスクに対処する新しいベンチマークデータセットであるPersonalityEditを構築します。
論文 参考訳(メタデータ) (2023-10-03T16:02:36Z) - Natural Language Decompositions of Implicit Content Enable Better Text
Representations [56.85319224208865]
本稿では,暗黙的に伝達されたコンテンツを明示的に考慮したテキスト分析手法を提案する。
我々は大きな言語モデルを用いて、観察されたテキストと推論的に関係する命題の集合を生成する。
本研究は,NLPにおいて,文字のみではなく,観察された言語の背景にある意味をモデル化することが重要であることを示唆する。
論文 参考訳(メタデータ) (2023-05-23T23:45:20Z) - Readability Research: An Interdisciplinary Approach [62.03595526230364]
我々は,可読性研究の包括的枠組みである可読性研究のための強固な基盤を提供することを目指している。
可読性(Readability)とは、ページから読み手への情報フローに影響を与える視覚情報設計の側面を指す。
これらのアスペクトはオンデマンドで修正可能で、読み手がテキストから処理し、意味を導き出すのが簡単になる。
論文 参考訳(メタデータ) (2021-07-20T16:52:17Z) - Predicting Text Readability from Scrolling Interactions [6.530293714772306]
本稿では,テキストの可読性とスクロール動作の関係について検討する。
データセットを公開し、テキストレベルに応じて読者がテキストと対話する方法に統計的に有意な違いがあることを示します。
論文 参考訳(メタデータ) (2021-05-13T15:27:00Z) - TextHide: Tackling Data Privacy in Language Understanding Tasks [54.11691303032022]
TextHideは、トレーニングを遅くしたり、精度を下げることなく、プライバシー上のリスクを軽減する。
すべての参加者は、盗聴攻撃者がプライベートテキストデータを復元するのを防ぐために、簡単な暗号化ステップを追加する必要がある。
我々は、GLUEベンチマーク上でTextHideを評価し、TextHideが共有勾配や表現に対する攻撃を効果的に防御できることを示す。
論文 参考訳(メタデータ) (2020-10-12T22:22:15Z) - Constructing a Testbed for Psychometric Natural Language Processing [0.5801044612920815]
心理測定自然言語処理(NLP)のためのコーパス構築への取り組みについて述べる。
我々は,ユーザテキストを調査に基づく回答項目と整合させる多段階プロセスについて論じる。
本稿では,ユーザの調査回答ラベルを分類・予測するためのテキストの使用に関する予備的な結果について報告する。
論文 参考訳(メタデータ) (2020-07-25T16:29:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。