論文の概要: Integrating Cognitive Processing Signals into Language Models: A Review of Advances, Applications and Future Directions
- arxiv url: http://arxiv.org/abs/2504.06843v1
- Date: Wed, 09 Apr 2025 13:01:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-10 13:07:42.837383
- Title: Integrating Cognitive Processing Signals into Language Models: A Review of Advances, Applications and Future Directions
- Title(参考訳): 認知処理信号の言語モデルへの統合:進歩,応用,今後の方向性
- Authors: Angela Lopez-Cardona, Sebastian Idesis, Ioannis Arapakis,
- Abstract要約: 本稿では,認知信号,特に眼球追跡(ET)信号を活用した言語モデル(LM)とマルチモーダル大言語モデル(MLLM)の最近の進歩について概説する。
ユーザ中心の認知シグナルを取り入れることで、これらのアプローチは、データの不足や大規模モデルをトレーニングする際の環境コストなど、重要な課題に対処する。
このレビューでは、視覚質問回答(VQA)やMLLMにおける幻覚の緩和といったタスクにおけるETデータの可能性を強調し、新たな課題や研究トレンドについて議論することで結論付けている。
- 参考スコア(独自算出の注目度): 2.362288417229025
- License:
- Abstract: Recently, the integration of cognitive neuroscience in Natural Language Processing (NLP) has gained significant attention. This article provides a critical and timely overview of recent advancements in leveraging cognitive signals, particularly Eye-tracking (ET) signals, to enhance Language Models (LMs) and Multimodal Large Language Models (MLLMs). By incorporating user-centric cognitive signals, these approaches address key challenges, including data scarcity and the environmental costs of training large-scale models. Cognitive signals enable efficient data augmentation, faster convergence, and improved human alignment. The review emphasises the potential of ET data in tasks like Visual Question Answering (VQA) and mitigating hallucinations in MLLMs, and concludes by discussing emerging challenges and research trends.
- Abstract(参考訳): 近年,自然言語処理(NLP)における認知神経科学の統合が注目されている。
本稿では,認知信号,特に眼球追跡(ET)信号を活用した言語モデル(LM)とマルチモーダル大言語モデル(MLLM)の最近の進歩について,批判的かつタイムリーに概説する。
ユーザ中心の認知シグナルを取り入れることで、これらのアプローチは、データの不足や大規模モデルをトレーニングする際の環境コストなど、重要な課題に対処する。
認知信号は、効率的なデータ拡張、より高速な収束、人間のアライメントの改善を可能にする。
このレビューでは、視覚質問回答(VQA)やMLLMにおける幻覚の緩和といったタスクにおけるETデータの可能性を強調し、新たな課題や研究トレンドについて議論することで結論付けている。
関連論文リスト
- Causality for Large Language Models [37.10970529459278]
数十億または数兆のパラメータを持つ大規模言語モデル(LLM)は、膨大なデータセットでトレーニングされており、一連の言語タスクで前例のない成功を収めている。
近年の研究では、LLMは因果オウムとして機能し、因果知識を真に理解したり応用したりすることなくリサイクリングすることができることが強調されている。
本調査は, ライフサイクルのすべての段階において, 因果性がどのようにLCMを強化するかを検討することを目的としている。
論文 参考訳(メタデータ) (2024-10-20T07:22:23Z) - RA-BLIP: Multimodal Adaptive Retrieval-Augmented Bootstrapping Language-Image Pre-training [55.54020926284334]
近年,MLLM (Multimodal Large Language Models) が注目されている。
検索拡張技術はLLMとMLLMの両方に有効なプラグインであることが証明されている。
本研究では,MLLMの新しい検索支援フレームワークであるRA-BLIP(Retrieval-Augmented Bootstrapping Language-Image Pre-training)を提案する。
論文 参考訳(メタデータ) (2024-10-18T03:45:19Z) - Multimodal Fusion with LLMs for Engagement Prediction in Natural Conversation [70.52558242336988]
我々は,不関心や混乱の兆候を検出することを目的として,言語的および非言語的手がかりを精査することにより,ダイアディック的相互作用における係り合いを予測することに焦点を当てた。
本研究では,カジュアルなダイアディック会話に携わる34人の参加者を対象に,各会話の最後に自己報告されたエンゲージメント評価を行うデータセットを収集する。
大規模言語モデル(LLMs)を用いた新たな融合戦略を導入し,複数行動モダリティをマルチモーダル・トランスクリプトに統合する。
論文 参考訳(メタデータ) (2024-09-13T18:28:12Z) - Converging Paradigms: The Synergy of Symbolic and Connectionist AI in LLM-Empowered Autonomous Agents [55.63497537202751]
コネクショニストと象徴的人工知能(AI)の収束を探求する記事
従来、コネクショナリストAIはニューラルネットワークにフォーカスし、シンボリックAIはシンボリック表現とロジックを強調していた。
大型言語モデル(LLM)の最近の進歩は、人間の言語をシンボルとして扱う際のコネクショナリストアーキテクチャの可能性を強調している。
論文 参考訳(メタデータ) (2024-07-11T14:00:53Z) - TE-SSL: Time and Event-aware Self Supervised Learning for Alzheimer's Disease Progression Analysis [6.6584447062231895]
アルツハイマー認知症(Alzheimer's Dementia、AD)は、神経変性疾患の分野で最も急激な課題の一つである。
近年の深層学習の進歩と、自己教師付き学習(SSL)を含む様々な表現学習戦略は、医用画像解析の強化に大きく貢献している。
本稿では,タイム・アンド・イブ・アウェア・SSL(TE-SSL)という新たなフレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-09T13:41:32Z) - Federated Learning driven Large Language Models for Swarm Intelligence: A Survey [2.769238399659845]
Federated Learning (FL)は、大規模言語モデル(LLM)をトレーニングするための魅力的なフレームワークを提供する
私たちは機械学習に重点を置いています。これは、忘れられる権利のようなプライバシー規則に従う上で重要な側面です。
摂動技術やモデル分解,漸進学習など,効果的なアンラーニングを可能にするさまざまな戦略を探求する。
論文 参考訳(メタデータ) (2024-06-14T08:40:58Z) - Augmenting LLMs with Knowledge: A survey on hallucination prevention [0.0]
この調査は言語モデル(LM)の領域を掘り下げ、外部の知識ソースをタップする機能を備えている。
欠落したトークンを予測するという標準的な目的に固執する一方で、これらの拡張LMは多種多様で、おそらくパラメトリックでない外部モジュールを活用する。
論文 参考訳(メタデータ) (2023-09-28T14:09:58Z) - Large Language Models for Information Retrieval: A Survey [58.30439850203101]
情報検索は、項ベースの手法から高度なニューラルモデルとの統合へと進化してきた。
近年の研究では、大規模言語モデル(LLM)を活用してIRシステムの改善が試みられている。
LLMとIRシステムの合流点を探索し、クエリリライト、リトリバー、リランカー、リーダーといった重要な側面を含む。
論文 参考訳(メタデータ) (2023-08-14T12:47:22Z) - A Survey of Large Language Models [81.06947636926638]
言語モデリングは、過去20年間、言語理解と生成のために広く研究されてきた。
近年,大規模コーパス上でのトランスフォーマーモデルの事前学習により,事前学習言語モデル (PLM) が提案されている。
パラメータスケールの違いを識別するために、研究コミュニティは大規模言語モデル (LLM) という用語を提唱した。
論文 参考訳(メタデータ) (2023-03-31T17:28:46Z) - Leveraging Pretrained Representations with Task-related Keywords for
Alzheimer's Disease Detection [69.53626024091076]
アルツハイマー病(AD)は高齢者に特に顕著である。
事前学習モデルの最近の進歩は、AD検出モデリングを低レベル特徴から高レベル表現にシフトさせる動機付けとなっている。
本稿では,高レベルの音響・言語的特徴から,より優れたAD関連手がかりを抽出する,いくつかの効率的な手法を提案する。
論文 参考訳(メタデータ) (2023-03-14T16:03:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。