論文の概要: Sniff AI: Is My 'Spicy' Your 'Spicy'? Exploring LLM's Perceptual Alignment with Human Smell Experiences
- arxiv url: http://arxiv.org/abs/2411.06950v1
- Date: Mon, 11 Nov 2024 12:56:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-12 14:08:39.832510
- Title: Sniff AI: Is My 'Spicy' Your 'Spicy'? Exploring LLM's Perceptual Alignment with Human Smell Experiences
- Title(参考訳): Sniff AI:私の「Spicy」はあなたの「Spicy」か? LLMの知覚アライメントと人間のスメル体験を探求する
- Authors: Shu Zhong, Zetao Zhou, Christopher Dawes, Giada Brianz, Marianna Obrist,
- Abstract要約: この研究は、嗅覚、人間の嗅覚に焦点をあてている。
筆者らは40名の被験者とともにユーザスタディを行い、AIが人間の匂いの描写をいかに解釈できるかを調べた。
その結果、レモンやペパーミントのような特定の香りに偏った知覚的アライメントが限られており、ローズマリーのような他者の識別に失敗し続けた。
- 参考スコア(独自算出の注目度): 12.203995379495916
- License:
- Abstract: Aligning AI with human intent is important, yet perceptual alignment-how AI interprets what we see, hear, or smell-remains underexplored. This work focuses on olfaction, human smell experiences. We conducted a user study with 40 participants to investigate how well AI can interpret human descriptions of scents. Participants performed "sniff and describe" interactive tasks, with our designed AI system attempting to guess what scent the participants were experiencing based on their descriptions. These tasks evaluated the Large Language Model's (LLMs) contextual understanding and representation of scent relationships within its internal states - high-dimensional embedding space. Both quantitative and qualitative methods were used to evaluate the AI system's performance. Results indicated limited perceptual alignment, with biases towards certain scents, like lemon and peppermint, and continued failing to identify others, like rosemary. We discuss these findings in light of human-AI alignment advancements, highlighting the limitations and opportunities for enhancing HCI systems with multisensory experience integration.
- Abstract(参考訳): 人間の意図でAIを適応させることは重要だが、知覚的なアライメント-AIが探索されていないものを見たり、聴いたり、嗅覚を解釈する。
この研究は、嗅覚、人間の嗅覚に焦点をあてている。
筆者らは40名の被験者とともにユーザスタディを行い、AIが人間の匂いの描写をいかに解釈できるかを調べた。
参加者は、その説明に基づいて、参加者がどのような匂いを経験しているかを推測するように設計されたAIシステムを使って、インタラクティブなタスクを“嗅ぎ、説明”しました。
これらのタスクは、Large Language Model(LLM)の文脈的理解と、その内部状態(高次元埋め込み空間)における香り関係の表現を評価した。
定量的および定性的手法は、AIシステムの性能を評価するために使用された。
その結果、レモンやペパーミントのような特定の香りに偏った知覚的アライメントが限られており、ローズマリーのような他者の識別に失敗し続けた。
我々は,HCIシステムの多感覚体験統合による拡張の限界と機会を明らかにするとともに,人間とAIのアライメントの進展を踏まえてこれらの知見を議論する。
関連論文リスト
- Data Science In Olfaction [1.4499463058550683]
データサイエンスとAIの観点から嗅覚を概念化し、嗅覚の特性を鼻から脳への嗅覚システムでどのように認識し分析するかを関連づける。
色覚に区別を加えることで、嗅覚は刺激の複雑さ、感覚装置の高次元性、そして地上の真実を構成するものなど、ユニークな測定課題をもたらすと論じる。
本研究は,マウス嗅球にカルシウム画像で記録された嗅覚に対する神経反応の機械学習による分類を用いて行った。
論文 参考訳(メタデータ) (2024-04-08T13:25:02Z) - LookALike: Human Mimicry based collaborative decision making [2.9419583394098425]
一般知能は、役割特定ニュアンスを他のシステムに伝達する際に不足する。
LLM エージェント間の知識蒸留につながる新しい手法を提案し,評価する。
また,本システムにおける実世界の課題のシミュレートについて,現状と比較した。
論文 参考訳(メタデータ) (2024-03-16T06:25:53Z) - Generative agents in the streets: Exploring the use of Large Language
Models (LLMs) in collecting urban perceptions [0.0]
本研究では,大規模言語モデル(LLM)を用いた生成エージェントの現況について検討する。
この実験では、都市環境と対話するための生成エージェントを用いて、ストリートビューイメージを使用して、特定の目標に向けて旅を計画する。
LLMにはエンボディメントがなく、視覚領域にもアクセスできず、動きや方向の感覚も欠如しているため、エージェントが周囲の全体的理解を得るのに役立つ動きと視覚モジュールを設計した。
論文 参考訳(メタデータ) (2023-12-20T15:45:54Z) - Towards Mitigating Hallucination in Large Language Models via
Self-Reflection [63.2543947174318]
大規模言語モデル(LLM)は、質問応答(QA)タスクを含む生成的および知識集約的なタスクを約束している。
本稿では,広範に採用されているLCMとデータセットを用いた医療再生QAシステムにおける幻覚現象を解析する。
論文 参考訳(メタデータ) (2023-10-10T03:05:44Z) - EgoTaskQA: Understanding Human Tasks in Egocentric Videos [89.9573084127155]
EgoTaskQAベンチマークは、現実世界のエゴセントリックなビデオに対する質問回答を通じて、タスク理解の重要な次元を提供する。
我々は,(1)行動依存と効果,(2)意図と目標,(3)エージェントの他者に対する信念の理解を念頭に設計する。
我々は、我々のベンチマークで最先端のビデオ推論モデルを評価し、複雑なゴール指向のエゴセントリックなビデオを理解する上で、人間の間に大きなギャップがあることを示します。
論文 参考訳(メタデータ) (2022-10-08T05:49:05Z) - Imagination-Augmented Natural Language Understanding [71.51687221130925]
自然言語理解タスクを解決するために,Imagination-Augmented Cross-modal (iACE)を導入する。
iACEは、強力な生成的および事前訓練された視覚・言語モデルから変換された外部知識で視覚的な想像を可能にする。
GLUEとSWAGの実験は、iACEが視覚的に教師付き事前訓練されたモデルよりも一貫した改善を達成していることを示している。
論文 参考訳(メタデータ) (2022-04-18T19:39:36Z) - From Psychological Curiosity to Artificial Curiosity: Curiosity-Driven
Learning in Artificial Intelligence Tasks [56.20123080771364]
心理学的好奇心は、探索と情報取得を通じて学習を強化するために、人間の知性において重要な役割を果たす。
人工知能(AI)コミュニティでは、人工好奇心は効率的な学習に自然な本質的な動機を与える。
CDLはますます人気を博し、エージェントは新たな知識を学習するために自己動機付けされている。
論文 参考訳(メタデータ) (2022-01-20T17:07:03Z) - Building Human-like Communicative Intelligence: A Grounded Perspective [1.0152838128195465]
言語学習における驚くべき進歩の後、AIシステムは人間のコミュニケーション能力の重要な側面を反映しない天井に近づいたようだ。
本稿は、ナチビストと象徴的パラダイムに基づく認知にインスパイアされたAIの方向性には、現代AIの進歩を導くために必要なサブストラテジと具体性がないことを示唆する。
本稿では,「地下」言語知能構築のための具体的かつ実装可能なコンポーネントのリストを提案する。
論文 参考訳(メタデータ) (2022-01-02T01:43:24Z) - Exploring the Sensory Spaces of English Perceptual Verbs in Natural
Language Data [0.40611352512781856]
エージェント対経験的区別から分析された英語の最も頻繁な知覚動詞に着目した。
本研究では,分散-意味的単語埋め込みとクラスタリングモデルに基づくデータ駆動型アプローチについて報告する。
論文 参考訳(メタデータ) (2021-10-19T03:58:44Z) - The MineRL BASALT Competition on Learning from Human Feedback [58.17897225617566]
MineRL BASALTコンペティションは、この重要な種類の技術の研究を促進することを目的としている。
Minecraftでは、ハードコードされた報酬関数を書くのが難しいと期待する4つのタスクのスイートを設計しています。
これら4つのタスクのそれぞれについて、人間のデモのデータセットを提供するとともに、模擬学習ベースラインを提供する。
論文 参考訳(メタデータ) (2021-07-05T12:18:17Z) - Bongard-LOGO: A New Benchmark for Human-Level Concept Learning and
Reasoning [78.13740873213223]
ボナード問題(BP)は、インテリジェントシステムにおける視覚認知へのインスピレーションとして導入された。
我々は人間レベルの概念学習と推論のための新しいベンチマークBongard-LOGOを提案する。
論文 参考訳(メタデータ) (2020-10-02T03:19:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。