論文の概要: A Vision for Multisensory Intelligence: Sensing, Science, and Synergy
- arxiv url: http://arxiv.org/abs/2601.04563v3
- Date: Tue, 13 Jan 2026 18:24:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-14 14:06:39.238281
- Title: A Vision for Multisensory Intelligence: Sensing, Science, and Synergy
- Title(参考訳): マルチセンサー・インテリジェンスのためのビジョン:センシング,科学,シナジー
- Authors: Paul Pu Liang,
- Abstract要約: 本稿は,今後10年間の多感覚人工知能研究の展望を概説する。
この新しいテクノロジーは、人間とAIがどのように経験し、相互に相互作用するかを変えることができる。
センサーの研究は、AIがデジタルメディアを超えて、より豊かな方法で世界を捉える方法を広げるべきである。
我々は、モダリティと人間とAIの相乗効果を学ぶための新しい技術的課題を提示する。
- 参考スコア(独自算出の注目度): 32.03738031386344
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Our experience of the world is multisensory, spanning a synthesis of language, sight, sound, touch, taste, and smell. Yet, artificial intelligence has primarily advanced in digital modalities like text, vision, and audio. This paper outlines a research vision for multisensory artificial intelligence over the next decade. This new set of technologies can change how humans and AI experience and interact with one another, by connecting AI to the human senses and a rich spectrum of signals from physiological and tactile cues on the body, to physical and social signals in homes, cities, and the environment. We outline how this field must advance through three interrelated themes of sensing, science, and synergy. Firstly, research in sensing should extend how AI captures the world in richer ways beyond the digital medium. Secondly, developing a principled science for quantifying multimodal heterogeneity and interactions, developing unified modeling architectures and representations, and understanding cross-modal transfer. Finally, we present new technical challenges to learn synergy between modalities and between humans and AI, covering multisensory integration, alignment, reasoning, generation, generalization, and experience. Accompanying this vision paper are a series of projects, resources, and demos of latest advances from the Multisensory Intelligence group at the MIT Media Lab, see https://mit-mi.github.io/.
- Abstract(参考訳): 私たちの世界経験は多感覚であり、言語、視覚、音、触覚、味、匂いの合成に及びます。
しかし、人工知能は主にテキスト、ビジョン、オーディオといったデジタルモダリティに進歩しています。
本稿は,今後10年間の多感覚人工知能研究の展望を概説する。
この新しいテクノロジーは、人間の感覚とAIを結びつけ、身体上の生理的、触覚的な手がかりから、家庭、都市、環境の物理的、社会的信号まで、多様な信号のスペクトルを伝達することによって、人間とAIが体験し、相互に相互作用する方法を変えることができる。
我々は、この分野が、センシング、科学、シナジーの3つの相互関連テーマを通してどのように進展するかを概説する。
第一に、センサーの研究は、AIがデジタルメディアを超えて、より豊かな方法で世界を捉える方法を広げるべきである。
第二に、マルチモーダルな不均一性と相互作用を定量化し、統一されたモデリングアーキテクチャと表現を開発し、クロスモーダルトランスファーを理解するための原則科学を開発する。
最後に、多感覚の統合、アライメント、推論、生成、一般化、経験を網羅し、モダリティと人間とAI間のシナジーを学ぶための新しい技術的課題を提案する。
このビジョンペーパーは、MITメディアラボのMultisensory Intelligenceグループの最新技術に関する一連のプロジェクト、リソース、デモである。
関連論文リスト
- Neural Brain: A Neuroscience-inspired Framework for Embodied Agents [78.61382193420914]
大規模な言語モデルのような現在のAIシステムは、いまだに解体され続けており、物理的に世界と関わりが持てない。
この課題の核心は、人間のような適応性を持つエンボディエージェントを駆動するために設計された中枢知能システムであるNeural Brain(ニューラル・ブレイン)の概念である。
本稿では,2つの基本的な課題に対処する,エンボディエージェントのニューラルブレインの統一的枠組みを提案する。
論文 参考訳(メタデータ) (2025-05-12T15:05:34Z) - Digitizing Touch with an Artificial Multimodal Fingertip [51.7029315337739]
人間とロボットはどちらも、周囲の環境を知覚し、相互作用するためにタッチを使うことの恩恵を受ける。
ここでは、タッチのデジタル化を改善するための概念的および技術革新について述べる。
これらの進歩は、高度なセンシング機能を備えた人工指型センサーに具現化されている。
論文 参考訳(メタデータ) (2024-11-04T18:38:50Z) - See, Hear, and Feel: Smart Sensory Fusion for Robotic Manipulation [49.925499720323806]
視覚的、聴覚的、触覚的知覚が、ロボットが複雑な操作タスクを解くのにどのように役立つかを研究する。
私たちは、カメラで見たり、コンタクトマイクで聞いたり、視覚ベースの触覚センサーで感じるロボットシステムを構築しました。
論文 参考訳(メタデータ) (2022-12-07T18:55:53Z) - Artificial Intelligence for the Metaverse: A Survey [66.57225253532748]
まず、機械学習アルゴリズムやディープラーニングアーキテクチャを含むAIの予備と、メタバースにおけるその役割について紹介する。
次に、メタバースの可能性を秘めた6つの技術的側面に関するAIベースの手法に関する包括的調査を行う。
医療、製造業、スマートシティ、ゲームなどのAI支援アプリケーションは、仮想世界に展開するために研究されている。
論文 参考訳(メタデータ) (2022-02-15T03:34:56Z) - Building Human-like Communicative Intelligence: A Grounded Perspective [1.0152838128195465]
言語学習における驚くべき進歩の後、AIシステムは人間のコミュニケーション能力の重要な側面を反映しない天井に近づいたようだ。
本稿は、ナチビストと象徴的パラダイムに基づく認知にインスパイアされたAIの方向性には、現代AIの進歩を導くために必要なサブストラテジと具体性がないことを示唆する。
本稿では,「地下」言語知能構築のための具体的かつ実装可能なコンポーネントのリストを提案する。
論文 参考訳(メタデータ) (2022-01-02T01:43:24Z) - Social Neuro AI: Social Interaction as the "dark matter" of AI [0.0]
我々は、社会心理学と社会神経科学の実証結果と力学の枠組みが、よりインテリジェントな人工エージェントの開発にインスピレーションを与えることができると主張している。
論文 参考訳(メタデータ) (2021-12-31T13:41:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。