論文の概要: Exploring Human-AI Perception Alignment in Sensory Experiences: Do LLMs Understand Textile Hand?
- arxiv url: http://arxiv.org/abs/2406.06587v1
- Date: Wed, 5 Jun 2024 08:46:07 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-12 21:14:20.706944
- Title: Exploring Human-AI Perception Alignment in Sensory Experiences: Do LLMs Understand Textile Hand?
- Title(参考訳): 感覚体験における人間とAIの知覚アライメントの探索:LLMは繊維の手を理解するか?
- Authors: Shu Zhong, Elia Gatti, Youngjun Cho, Marianna Obrist,
- Abstract要約: タッチのような知覚のモダリティは、視覚のような他の感覚のモダリティよりも多面的かつニュアンス的である。
これは触覚のアライメントに関する最初の調査であり、繊維の手で例示されている。
- 参考スコア(独自算出の注目度): 18.912880832131595
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Aligning large language models (LLMs) behaviour with human intent is critical for future AI. An important yet often overlooked aspect of this alignment is the perceptual alignment. Perceptual modalities like touch are more multifaceted and nuanced compared to other sensory modalities such as vision. This work investigates how well LLMs align with human touch experiences using the "textile hand" task. We created a "Guess What Textile" interaction in which participants were given two textile samples -- a target and a reference -- to handle. Without seeing them, participants described the differences between them to the LLM. Using these descriptions, the LLM attempted to identify the target textile by assessing similarity within its high-dimensional embedding space. Our results suggest that a degree of perceptual alignment exists, however varies significantly among different textile samples. For example, LLM predictions are well aligned for silk satin, but not for cotton denim. Moreover, participants didn't perceive their textile experiences closely matched by the LLM predictions. This is only the first exploration into perceptual alignment around touch, exemplified through textile hand. We discuss possible sources of this alignment variance, and how better human-AI perceptual alignment can benefit future everyday tasks.
- Abstract(参考訳): 人間の意図による大規模言語モデル(LLM)の振る舞いの調整は、将来のAIにとって重要である。
このアライメントの重要かつしばしば見落とされがちな側面は知覚アライメントである。
タッチのような知覚のモダリティは、視覚のような他の感覚のモダリティよりも多面的かつニュアンス的である。
本研究は,LLMが「触覚ハンド」タスクを用いて,人間の触覚とどのように協調するかを検討する。
私たちは"Guess What Textile"インタラクションを作り、参加者には2つの繊維サンプル(ターゲットと参照)が与えられました。
見ることなく、参加者はそれらの違いをLSMに説明しました。
これらの記述を用いて、LLMは、その高次元埋め込み空間内での類似性を評価することによって、ターゲット繊維の同定を試みた。
以上の結果から, 知覚的アライメントの程度は異なるが, 異なる繊維試料間で大きく異なることが示唆された。
例えば、LLMの予測は絹のサテンには適しているが、綿のデニムには適していない。
さらに, LLM予測と密に一致した織物経験を, 参加者は認識しなかった。
これは触覚のアライメントに関する最初の調査であり、繊維の手で例示されている。
このアライメントのばらつきの可能性のある源泉と、人間の知覚的アライメントが将来の日常業務にどのように役立つかについて議論する。
関連論文リスト
- Hate Personified: Investigating the role of LLMs in content moderation [64.26243779985393]
ヘイト検出などの主観的タスクでは,人々が嫌悪感を知覚する場合には,多様なグループを表現できるLarge Language Model(LLM)の能力は不明確である。
追加の文脈をプロンプトに含めることで、LLMの地理的プライミングに対する感受性、ペルソナ属性、数値情報を分析し、様々なグループのニーズがどの程度反映されているかを評価する。
論文 参考訳(メタデータ) (2024-10-03T16:43:17Z) - Do Large Language Models Possess Sensitive to Sentiment? [18.88126980975737]
大規模言語モデル(LLM)は、最近、言語理解における異常な能力を示した。
本稿では,LLMがテキストモーダルの感情を検知し,反応する能力について検討する。
論文 参考訳(メタデータ) (2024-09-04T01:40:20Z) - Impact of Decoding Methods on Human Alignment of Conversational LLMs [11.673312535250263]
我々は, 物質, スタイル, 心理指標の配向に関する新しい尺度を提示する。
タスク指向のデータセットとオープンエンドのデータセットは、アライメントの点で異なる結果が得られます。
論文 参考訳(メタデータ) (2024-07-28T16:31:09Z) - TM-TREK at SemEval-2024 Task 8: Towards LLM-Based Automatic Boundary Detection for Human-Machine Mixed Text [0.0]
本稿では,人文と機械生成の混合テキストにおける境界を識別する大規模言語モデルの能力について検討する。
LLMのアンサンブルモデルは,SemEval'24コンペティションタスク8の「Human-Machine Mixed Text Detection」サブタスクにおいて,第1位を獲得した。
論文 参考訳(メタデータ) (2024-04-01T03:54:42Z) - Scaling Data Diversity for Fine-Tuning Language Models in Human Alignment [84.32768080422349]
人間の好みの調整は、大きな言語モデルが誤解を招くか有害なコンテンツを生成するのを防ぐ。
本研究では, 微調整後のLLMの最終性能と線形相関を示唆し, 即時多様性の新たな定式化を提案する。
論文 参考訳(メタデータ) (2024-03-17T07:08:55Z) - Alignment for Honesty [105.72465407518325]
最近の研究は、大きな言語モデル(LLM)を有用性と無害性と整合させることに大きく貢献している。
本稿は,LLMが知識の欠如に積極的に回答を拒むことを確実にする,エンフォネストリーにおけるアライメントの重要性を論じる。
これらの課題に対処するために、まずは正確な問題定義を確立し、儒教の分析に触発された「誠実さ」を定義します。
論文 参考訳(メタデータ) (2023-12-12T06:10:42Z) - AlignedCoT: Prompting Large Language Models via Native-Speaking Demonstrations [52.43593893122206]
Alignedcotは、大規模言語モデルを呼び出すためのコンテキスト内学習技術である。
ゼロショットシナリオでは、一貫した正しいステップワイズプロンプトを達成する。
数学的推論とコモンセンス推論の実験を行う。
論文 参考訳(メタデータ) (2023-11-22T17:24:21Z) - MoCa: Measuring Human-Language Model Alignment on Causal and Moral
Judgment Tasks [49.60689355674541]
認知科学の豊富な文献は人々の因果関係と道徳的直観を研究してきた。
この研究は、人々の判断に体系的に影響を及ぼす多くの要因を明らかにした。
大規模言語モデル(LLM)が、人間の参加者と一致するテキストベースのシナリオについて因果的、道徳的な判断を下すかどうかを検証する。
論文 参考訳(メタデータ) (2023-10-30T15:57:32Z) - Aligning Large Language Models with Human: A Survey [53.6014921995006]
広範囲なテキストコーパスで訓練されたLarge Language Models (LLM) は、幅広い自然言語処理(NLP)タスクの先導的なソリューションとして登場した。
その顕著な性能にもかかわらず、これらのモデルは、人間の指示を誤解したり、偏見のあるコンテンツを生成したり、事実的に誤った情報を生成するといった、ある種の制限を受ける傾向にある。
本調査では,これらのアライメント技術の概要について概観する。
論文 参考訳(メタデータ) (2023-07-24T17:44:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。