論文の概要: Towards Olfactory Information Extraction from Text: A Case Study on
Detecting Smell Experiences in Novels
- arxiv url: http://arxiv.org/abs/2011.08903v2
- Date: Sun, 6 Dec 2020 19:02:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-24 16:38:57.093613
- Title: Towards Olfactory Information Extraction from Text: A Case Study on
Detecting Smell Experiences in Novels
- Title(参考訳): テキストからの嗅覚情報抽出に向けて : 小説における臭いの発見を事例として
- Authors: Ryan Brate, Paul Groth, Marieke van Erp
- Abstract要約: 英語文学における嗅覚体験を識別するための半教師ありアプローチに2つのバリエーションを提示する。
組み合わせたパターンセットは、キーワードベースのベースラインよりもはるかに優れたパフォーマンスを提供する。
- 参考スコア(独自算出の注目度): 1.5641335104467975
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Environmental factors determine the smells we perceive, but societal factors
factors shape the importance, sentiment and biases we give to them.
Descriptions of smells in text, or as we call them `smell experiences', offer a
window into these factors, but they must first be identified. To the best of
our knowledge, no tool exists to extract references to smell experiences from
text. In this paper, we present two variations on a semi-supervised approach to
identify smell experiences in English literature. The combined set of patterns
from both implementations offer significantly better performance than a
keyword-based baseline.
- Abstract(参考訳): 環境要因は私たちが知覚する匂いを決定するが、社会的要因は私たちが与える重要性、感情、偏見を形作る。
テキスト中の臭いの説明や、いわゆる“smell experience”は、これらの要因のウィンドウを提供するが、最初に識別する必要がある。
我々の知る限りでは、テキストから匂いを嗅ぐための参照を抽出するツールは存在しない。
本稿では,英語文学における匂いを識別するための半教師ありアプローチについて2つのバリエーションを示す。
両方の実装のパターンの組み合わせは、キーワードベースのベースラインよりもはるかに優れたパフォーマンスを提供する。
関連論文リスト
- Q-Learning to navigate turbulence without a map [47.28605705112213]
乱流環境における嗅覚探索の問題点を考察する。
そこで我々は,少数の解釈可能な嗅覚状態を用いた強化学習アルゴリズムを開発した。
そこで本研究では, 嗅覚の相違点が2つあり, 現実的な嗅覚プルームでナビゲーションを学ぶのに十分であることを示す。
論文 参考訳(メタデータ) (2024-04-26T15:51:20Z) - Characterizing Requirements Smells [1.565361244756411]
本研究の目的は、周波数、重大度、および効果の観点から、12の要求臭を特徴付けることである。
インタビューでは、最も厳しいと認識される臭いの種類は、あいまいさと妥当性であることが示された。
また,臭いの種類によって匂いの影響が変わるという,要求の匂いについて学ぶ6つのレッスンのセットも提供する。
論文 参考訳(メタデータ) (2024-04-17T06:43:02Z) - Data Science In Olfaction [1.4499463058550683]
データサイエンスとAIの観点から嗅覚を概念化し、嗅覚の特性を鼻から脳への嗅覚システムでどのように認識し分析するかを関連づける。
色覚に区別を加えることで、嗅覚は刺激の複雑さ、感覚装置の高次元性、そして地上の真実を構成するものなど、ユニークな測定課題をもたらすと論じる。
本研究は,マウス嗅球にカルシウム画像で記録された嗅覚に対する神経反応の機械学習による分類を用いて行った。
論文 参考訳(メタデータ) (2024-04-08T13:25:02Z) - In-Memory Learning: A Declarative Learning Framework for Large Language
Models [56.62616975119192]
本研究では,人間ラベルデータに頼らずにエージェントが環境に整合できる新しい学習フレームワークを提案する。
このプロセス全体がメモリコンポーネント内で変換され、自然言語で実装される。
フレームワークの有効性を実証し、この問題に対する洞察を提供する。
論文 参考訳(メタデータ) (2024-03-05T08:25:11Z) - Enhancing Uncertainty-Based Hallucination Detection with Stronger Focus [99.33091772494751]
大規模言語モデル(LLM)は、様々な分野にわたる印象的なパフォーマンスで大きな人気を集めている。
LLMは、ユーザの期待を満たさない非現実的あるいは非感覚的なアウトプットを幻覚させる傾向がある。
LLMにおける幻覚を検出するための新しい基準のない不確実性に基づく手法を提案する。
論文 参考訳(メタデータ) (2023-11-22T08:39:17Z) - Integrating Language-Derived Appearance Elements with Visual Cues in Pedestrian Detection [51.66174565170112]
本研究では,大言語モデルの強みを文脈的外見の変化の理解に活用するための新しいアプローチを提案する。
本稿では,言語由来の外観要素を定式化し,歩行者検出に視覚的手がかりを取り入れることを提案する。
論文 参考訳(メタデータ) (2023-11-02T06:38:19Z) - From meaning to perception -- exploring the space between word and odor
perception embeddings [0.30458514384586394]
嗅覚の埋め込み(または匂いの埋め込み)を得るためにWord2vecアルゴリズムを提案する。
これらの埋め込みの意義は、美学が分布意味論によって動機付けられたアルゴリズムを使用するのに十分な制約を与える可能性があることを示唆している。
また, 実際の香水とランダムに生成した香水の相違に基づき, 香水の美的性質を理解するために, 埋め込みを用いている。
論文 参考訳(メタデータ) (2022-03-19T10:44:20Z) - Exploring the Sensory Spaces of English Perceptual Verbs in Natural
Language Data [0.40611352512781856]
エージェント対経験的区別から分析された英語の最も頻繁な知覚動詞に着目した。
本研究では,分散-意味的単語埋め込みとクラスタリングモデルに基づくデータ駆動型アプローチについて報告する。
論文 参考訳(メタデータ) (2021-10-19T03:58:44Z) - Inter-Sense: An Investigation of Sensory Blending in Fiction [0.40611352512781856]
本研究は,8,000冊以上のフィクションの大規模なコーパスにおいて,視覚,聴覚,触覚,味覚,嗅覚の英文感覚記述者の意味的構造について報告する。
本稿では,これらの記述子を識別・抽出するために,分散-意味的単語埋め込みに基づく大規模テキストデータ駆動方式を提案する。
これらの知見は、概念の獲得と表現に関する研究、および知覚経験の知覚空間をよりよく理解することの恩恵を受けるアプリケーションに関係している。
論文 参考訳(メタデータ) (2021-10-19T03:25:26Z) - YouRefIt: Embodied Reference Understanding with Language and Gesture [95.93218436323481]
具体的参照の理解について研究する。
あるエージェントは、言語とジェスチャーの両方を使用して、共有された物理的環境でオブジェクトを別のエージェントに参照する。
クラウドソースされたYouRefItデータセットには、432の屋内シーンで4,195のユニークな参照クリップが含まれている。
論文 参考訳(メタデータ) (2021-09-08T03:27:32Z) - Improving Machine Reading Comprehension with Contextualized Commonsense
Knowledge [62.46091695615262]
我々は、機械読解の理解を改善するために、常識知識を抽出することを目指している。
構造化知識を文脈内に配置することで,関係を暗黙的に表現することを提案する。
我々は,教師の学習パラダイムを用いて,複数種類の文脈的知識を学生機械読取機に注入する。
論文 参考訳(メタデータ) (2020-09-12T17:20:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。