論文の概要: Towards a Computational Analysis of Suspense: Detecting Dangerous
Situations
- arxiv url: http://arxiv.org/abs/2305.06818v1
- Date: Thu, 11 May 2023 14:12:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-12 14:42:50.954357
- Title: Towards a Computational Analysis of Suspense: Detecting Dangerous
Situations
- Title(参考訳): サスペンスの計算解析に向けて:危険状況の検出
- Authors: Albin Zehe, Julian Schr\"oter, Andreas Hotho
- Abstract要約: 私たちは、著者がサスペンスを構築するために使える要素の1つに焦点を当てます。
危険状況に注意を喚起したテキストのコーパスを導入し、7種類の危険を区別する。
本研究では,これらの状況を自動的に検出する実験を行い,教師なしベースライン法が検出に有用な信号を提供することを示した。
- 参考スコア(独自算出の注目度): 2.449329947677678
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Suspense is an important tool in storytelling to keep readers engaged and
wanting to read more. However, it has so far not been studied extensively in
Computational Literary Studies. In this paper, we focus on one of the elements
authors can use to build up suspense: dangerous situations. We introduce a
corpus of texts annotated with dangerous situations, distinguishing between 7
types of danger. Additionally, we annotate parts of the text that describe fear
experienced by a character, regardless of the actual presence of danger. We
present experiments towards the automatic detection of these situations,
finding that unsupervised baseline methods can provide valuable signals for the
detection, but more complex methods are necessary for further analysis. Not
unexpectedly, the description of danger and fear often relies heavily on the
context, both local (e.g., situations where danger is only mentioned, but not
actually present) and global (e.g., "storm" being used in a literal sense in an
adventure novel, but metaphorically in a romance novel).
- Abstract(参考訳): Suspenseはストーリーテリングにおいて、読者がもっと読みたいと思うようにするための重要なツールである。
しかし、現在まで計算文学研究において広く研究されていない。
本稿では,著者がサスペンスを構築するのに使用可能な要素の1つ,すなわち危険な状況に焦点を当てる。
7種類の危険を区別した危険な状況に注釈付きテキストのコーパスを導入する。
さらに、危険の有無にかかわらず、キャラクターが経験した恐怖を記述したテキストの一部に注釈を付ける。
そこで本研究では,これらの状況を自動的に検出する実験を行い,教師なしのベースライン手法が検出に有用な信号を提供できることを発見した。
意外なことではないが、危険と恐怖の記述は、しばしばローカルな状況(例えば、危険は言及されていないが実際には存在しない状況)とグローバルな状況(例えば、冒険小説では文字通りの意味で使用されるが、ロマンス小説では比喩的に)に大きく依存している。
関連論文リスト
- Illusions of Relevance: Using Content Injection Attacks to Deceive Retrievers, Rerankers, and LLM Judges [52.96987928118327]
検索,リランカー,大型言語モデル(LLM)の埋め込みモデルは,コンテンツインジェクション攻撃に対して脆弱であることがわかった。
主な脅威は,(1) 意味不明な内容や有害な内容の挿入,(2) 関連性を高めるために,問合せ全体あるいはキークエリ用語の挿入,の2つである。
本研究は, 注射内容の配置や関連物質と非関連物質とのバランスなど, 攻撃の成功に影響を与える要因を系統的に検討した。
論文 参考訳(メタデータ) (2025-01-30T18:02:15Z) - Towards More Realistic Extraction Attacks: An Adversarial Perspective [4.932130498861987]
本稿では,敵の視点からの抽出攻撃を再考する。
抽出の傾向、すなわちプロンプトの直感的変化に顕著な変化が見られる。
データ重複のような緩和戦略であっても、現実世界の敵に対する抽出リスクのエスカレーションは同じです。
論文 参考訳(メタデータ) (2024-07-02T18:33:49Z) - Towards Probing Speech-Specific Risks in Large Multimodal Models: A Taxonomy, Benchmark, and Insights [50.89022445197919]
本研究は,8つのリスクカテゴリーを敵意(悪意的皮肉と脅し),悪意的模倣(年齢,性別,民族),ステレオタイプ的バイアス(年齢,性別,民族)を対象とする音声特異的リスク分類法を提案する。
分類に基づいて,これらのリスクのカテゴリを検出するために,現在のLMM能力を評価するための小規模データセットを作成する。
論文 参考訳(メタデータ) (2024-06-25T10:08:45Z) - Textual Unlearning Gives a False Sense of Unlearning [13.514698756802781]
言語モデル(LM)は、重要なユーザ情報を含むトレーニングデータを「記憶する」傾向がある。
機械学習は、LMが特定のテキストを効率的に「忘れる」ための有望なアプローチとして登場した。
テキストによるアンラーニングは、非ラーニングの誤った感覚を与え、より堅牢でセキュアなアンラーニングメカニズムの必要性を強調している。
論文 参考訳(メタデータ) (2024-06-19T08:51:54Z) - Assaying on the Robustness of Zero-Shot Machine-Generated Text Detectors [57.7003399760813]
先進的なLarge Language Models (LLMs) とその特殊な変種を探索し、いくつかの方法でこの分野に寄与する。
トピックと検出性能の間に有意な相関関係が発見された。
これらの調査は、様々なトピックにまたがるこれらの検出手法の適応性と堅牢性に光を当てた。
論文 参考訳(メタデータ) (2023-12-20T10:53:53Z) - Towards Possibilities & Impossibilities of AI-generated Text Detection:
A Survey [97.33926242130732]
大規模言語モデル(LLM)は、自然言語処理(NLP)の領域に革命をもたらし、人間のようなテキスト応答を生成する能力を持つ。
これらの進歩にもかかわらず、既存の文献のいくつかは、LLMの潜在的な誤用について深刻な懸念を提起している。
これらの懸念に対処するために、研究コミュニティのコンセンサスは、AI生成テキストを検出するアルゴリズムソリューションを開発することである。
論文 参考訳(メタデータ) (2023-10-23T18:11:32Z) - An Analysis of Reader Engagement in Literary Fiction through Eye
Tracking and Linguistic Features [11.805980147608178]
本研究は,読み手がいかに興味を抱くかを予測する上で,テキストの様々な性質の重要性について分析した。
フィクションで読者を魅了するものの理解を深めることによって、創造的な物語生成に使用されるモデルにより良い情報を与えることができる。
論文 参考訳(メタデータ) (2023-06-06T22:14:59Z) - Unsupervised Extractive Summarization of Emotion Triggers [56.50078267340738]
我々は、感情を共同で検出し、トリガーを要約できる新しい教師なし学習モデルを開発した。
Emotion-Aware Pagerankと題された私たちのベストアプローチは、外部ソースからの感情情報と言語理解モジュールを組み合わせたものです。
論文 参考訳(メタデータ) (2023-06-02T11:07:13Z) - Can AI-Generated Text be Reliably Detected? [50.95804851595018]
大規模言語モデル(LLM)は、様々なアプリケーションで非常によく機能します。
盗作、偽ニュースの発生、スパムなどの活動においてこれらのモデルが誤用される可能性があることは、彼らの責任ある使用に対する懸念を引き起こしている。
我々は、攻撃者の存在下で、これらのAIテキスト検出装置の堅牢性を強調テストする。
論文 参考訳(メタデータ) (2023-03-17T17:53:19Z) - Modelling Suspense in Short Stories as Uncertainty Reduction over Neural
Representation [17.683705809784453]
サスペンスは物語小説の重要な要素であり、読者を惹きつけ、説得力のある物語を作る。
サスペンスをモデル化する2つの方法を比較する。サプライズ、現在の状況がどれだけ予期せぬものであるかの逆向きの尺度、不確実性低減、ストーリーの継続がどれだけ予期せぬかの前方方向の尺度である。
本稿では,物語を符号化し,サプライズと不確実性を低減する階層型言語モデルを提案する。
論文 参考訳(メタデータ) (2020-04-30T16:03:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。