論文の概要: Dreams Are More "Predictable'' Than You Think
- arxiv url: http://arxiv.org/abs/2305.05054v1
- Date: Mon, 8 May 2023 21:24:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-10 14:34:42.698935
- Title: Dreams Are More "Predictable'' Than You Think
- Title(参考訳): 夢は想像以上に「予測可能」
- Authors: Lorenzo Bertolini
- Abstract要約: 私は、夢のレポートがWikipediaなど、他の人間が生成したテキストから逸脱するかどうか、そしてどのように研究します。
平均して、単一のドリームレポートはWikipediaの記事よりもはるかに予測可能である。
予備的な証拠は、単語数、性別、視覚障害が、ドリームレポートがモデルにどのように現れるかを予測することができることを示唆している。
- 参考スコア(独自算出の注目度): 2.094022863940315
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A consistent body of evidence suggests that dream reports significantly vary
from other types of textual transcripts with respect to semantic content.
Furthermore, it appears to be a widespread belief in the dream/sleep research
community that dream reports constitute rather ``unique'' strings of text. This
might be a notable issue for the growing amount of approaches using natural
language processing (NLP) tools to automatically analyse dream reports, as they
largely rely on neural models trained on non-dream corpora scraped from the
web. In this work, I will adopt state-of-the-art (SotA) large language models
(LLMs), to study if and how dream reports deviate from other human-generated
text strings, such as Wikipedia. Results show that, taken as a whole, DreamBank
does not deviate from Wikipedia. Moreover, on average, single dream reports are
significantly more predictable than Wikipedia articles. Preliminary evidence
suggests that word count, gender, and visual impairment can significantly shape
how predictable a dream report can appear to the model.
- Abstract(参考訳): 一貫した証拠は、ドリームレポートが意味的内容に関して他の種類のテキスト転写物と大きく異なることを示唆している。
さらに、夢レポートはむしろ「普遍的な」テキストの文字列を構成するという夢/眠気研究コミュニティへの広く信じられているようである。
これは、自然言語処理(NLP)ツールを使用して夢のレポートを自動的に分析するアプローチの増加において、注目すべき問題であるかもしれない。
本研究では,現在最先端(SotA)の大規模言語モデル(LLM)を採用して,ウィキペディアなど,他の人工文字列からドリームレポートが逸脱するかどうかについて検討する。
結果は、dreambankがwikipediaから逸脱していないことを示している。
さらに、平均して、シングルドリームレポートはwikipediaの記事よりもかなり予測可能である。
予備的な証拠は、単語数、性別、視覚障害が、モデルにどれだけ予測可能なかを著しく形成できることを示唆している。
関連論文リスト
- Sequence-to-Sequence Language Models for Character and Emotion Detection in Dream Narratives [0.0]
本稿では,オープンドリームバンク・コーパス・オブ・ドリームストーリーズ(DreamBank corpus of Dream Storys)の英語部分における性格と感情の検出に関する最初の研究について述べる。
以上の結果から,言語モデルがこの複雑な課題に効果的に対処できることが示唆された。
モデルサイズ,文字の予測順序,固有名や文字の特徴を考慮した評価を行った。
論文 参考訳(メタデータ) (2024-03-21T08:27:49Z) - Fluent dreaming for language models [0.0]
機能可視化(英: Feature Visualization)は、ニューロンの活性化や他の内部成分を最大化するために入力を最適化することで視覚モデルに対する洞察を提供する。
本稿では,言語モデル逆アタック文学からの手法であるGreedy Coordinate Gradientを拡張して,進化的プロンプト最適化(EPO)アルゴリズムを設計する。
論文 参考訳(メタデータ) (2024-01-24T17:57:12Z) - Visually Grounded Language Learning: a review of language games,
datasets, tasks, and models [60.2604624857992]
多くのVision+Language (V+L)タスクは、視覚的モダリティでシンボルをグラウンドできるモデルを作成することを目的として定義されている。
本稿では,V+L分野において提案されるいくつかの課題とモデルについて,系統的な文献レビューを行う。
論文 参考訳(メタデータ) (2023-12-05T02:17:29Z) - Dream Content Discovery from Reddit with an Unsupervised Mixed-Method
Approach [0.8127745323109788]
自然言語処理による自由形ドリームレポートのトピックを識別するための,データ駆動型混合手法を新たに開発した。
我々は、Redditのr/Dreams subredditから44,213件のドリームレポートでこの方法を試した。
本手法では,異なる種類の夢のパターンを見出すことができ,話題の重要度や関連性を理解し,時間的および主要イベントの周囲における集合的夢体験の変化を観察することができる。
論文 参考訳(メタデータ) (2023-07-09T13:24:58Z) - Automatic Scoring of Dream Reports' Emotional Content with Large
Language Models [3.1761323820497656]
夢の内容の研究は典型的には、睡眠から目覚めたときに、夢の人々が提供した言葉による報告の分析に依存する。
このタスクは、訓練されたアノテータによって提供された手動のスコアリングを通じて古典的に実行され、多大な費用がかかる。
一貫した研究は、自然言語処理(NLP)ツールが夢のレポートの自動解析をサポートすることを示唆しているが、提案手法にはレポートの全コンテキストを推論する能力がなく、広範なデータ前処理が必要であった。
本研究では,大規模な言語モデル(LLM)を応用して,夢のレポートのマニュアルアノテーションを,オフの混合を用いて研究し,再現することにより,これらの制約に対処する。
論文 参考訳(メタデータ) (2023-02-28T18:23:17Z) - Localization vs. Semantics: Visual Representations in Unimodal and
Multimodal Models [57.08925810659545]
既存の視覚・言語モデルと視覚のみのモデルにおける視覚表現の比較分析を行う。
我々の経験的観察は、視覚・言語モデルがラベル予測タスクに優れていることを示唆している。
我々の研究は、視覚学習における言語の役割に光を当て、様々な事前学習モデルの実証的なガイドとして機能することを願っている。
論文 参考訳(メタデータ) (2022-12-01T05:00:18Z) - Transparency Helps Reveal When Language Models Learn Meaning [71.96920839263457]
合成データを用いた体系的な実験により,すべての表現が文脈に依存しない意味を持つ言語では,自己回帰型とマスキング型の両方の言語モデルが,表現間の意味的関係をエミュレートする。
自然言語に目を向けると、特定の現象(参照不透明さ)による実験は、現在の言語モデルが自然言語の意味論をうまく表現していないという証拠を増大させる。
論文 参考訳(メタデータ) (2022-10-14T02:35:19Z) - Epidemic Dreams: Dreaming about health during the COVID-19 pandemic [1.0093662416275693]
夢の連続性仮説は、夢の内容が夢師の覚醒体験と連続していることを示している。
我々は,テキストから医療状況の言及を抽出し,パンデミック時に収集した2つのデータセットに適用可能なディープラーニングアルゴリズムを実装した。
両セットに共通する健康表現は、典型的な新型コロナウイルスの症状であり、夢は人々の現実の体験を反映していることを示唆している。
論文 参考訳(メタデータ) (2022-02-02T18:09:06Z) - The World of an Octopus: How Reporting Bias Influences a Language
Model's Perception of Color [73.70233477125781]
報告バイアスがテキストのみのトレーニングに悪影響を及ぼし、本質的に制限されていることを示す。
次に、マルチモーダルモデルが視覚的トレーニングを利用してこれらの効果を緩和できることを実証する。
論文 参考訳(メタデータ) (2021-10-15T16:28:17Z) - It's not Rocket Science : Interpreting Figurative Language in Narratives [48.84507467131819]
我々は2つの非構成的図形言語(イディオムとシミュラ)の解釈を研究する。
実験の結果、事前学習された言語モデルのみに基づくモデルは、これらのタスクにおいて人間よりもはるかにひどい性能を示すことがわかった。
また, 知識強化モデルを提案し, 具体的言語を解釈するための人的戦略を採用した。
論文 参考訳(メタデータ) (2021-08-31T21:46:35Z) - PIGLeT: Language Grounding Through Neuro-Symbolic Interaction in a 3D
World [86.21137454228848]
我々はPIGLeTを物理力学モデルと別言語モデルに分類する。
PIGLeTは文を読み、次に何が起こるか神経的にシミュレートし、その結果を文字通りの記号表現を通して伝達する。
80%以上の英語の文から「次に何が起こるか」を正確に予測することができ、100倍以上のテキスト・テキスト・アプローチを10%以上上回っている。
論文 参考訳(メタデータ) (2021-06-01T02:32:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。