論文の概要: Multi-Modal Subjective Context Modelling and Recognition
- arxiv url: http://arxiv.org/abs/2011.09671v1
- Date: Thu, 19 Nov 2020 05:42:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-23 20:59:43.271304
- Title: Multi-Modal Subjective Context Modelling and Recognition
- Title(参考訳): マルチモーダル主観的文脈モデリングと認識
- Authors: Qiang Shen and Stefano Teso and Wanyi Zhang and Hao Xu and Fausto
Giunchiglia
- Abstract要約: 我々は,時間,場所,活動,社会的関係,対象の5次元を捉える新しい存在論的文脈モデルを提案する。
実世界のデータに対する最初の文脈認識実験は、我々のモデルの約束を示唆している。
- 参考スコア(独自算出の注目度): 19.80579219657159
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Applications like personal assistants need to be aware ofthe user's context,
e.g., where they are, what they are doing, and with whom. Context information
is usually inferred from sensor data, like GPS sensors and accelerometers on
the user's smartphone. This prediction task is known as context recognition. A
well-defined context model is fundamental for successful recognition. Existing
models, however, have two major limitations. First, they focus on few aspects,
like location or activity, meaning that recognition methods based onthem can
only compute and leverage few inter-aspect correlations. Second, existing
models typically assume that context is objective, whereas in most applications
context is best viewed from the user's perspective. Neglecting these factors
limits the usefulness of the context model and hinders recognition. We present
a novel ontological context model that captures five dimensions, namely time,
location, activity, social relations and object. Moreover, our model defines
three levels of description(objective context, machine context and subjective
context) that naturally support subjective annotations and reasoning.An initial
context recognition experiment on real-world data hints at the promise of our
model.
- Abstract(参考訳): パーソナルアシスタントのようなアプリケーションは、ユーザのコンテキスト、例えば、どこにいて、何をしているか、誰と一緒にいるのかを認識する必要があります。
コンテキスト情報は通常、ユーザのスマートフォン上のgpsセンサーや加速度計など、センサデータから推測される。
この予測タスクはコンテキスト認識と呼ばれる。
適切に定義されたコンテキストモデルは、認識を成功させるために基本となる。
しかし、既存のモデルには2つの大きな制限がある。
まず、位置や活動など、少数の側面に焦点を当てる。つまり、テーマに基づく認識手法は、アスペクト間相関の少ない計算と利用しかできない。
第二に、既存のモデルは一般的にコンテキストが客観的であると仮定するが、ほとんどのアプリケーションではコンテキストがユーザの視点から最もよく見える。
これらの要因を無視することは、文脈モデルの有用性を制限し、認識を妨げる。
我々は,時間,場所,活動,社会的関係,対象の5次元を捉える新しい存在論的文脈モデルを提案する。
さらに,本モデルは,主観的アノテーションと推論を自然にサポートする3つの記述レベル(目的的コンテキスト,機械的コンテキスト,主観的コンテキスト)を定義している。
関連論文リスト
- Context versus Prior Knowledge in Language Models [49.17879668110546]
言語モデルは、事前学習中に学んだ事前知識と、文脈で提示された新しい情報を統合する必要があることが多い。
本稿では,モデルがコンテキストと先行するエンティティへの依存性を測定するための2つの相互情報ベースメトリクスを提案する。
論文 参考訳(メタデータ) (2024-04-06T13:46:53Z) - On-device modeling of user's social context and familiar places from
smartphone-embedded sensor data [7.310043452300736]
本稿では,ユーザの社会的状況や位置を直接モバイルデバイス上でモデル化する,教師なしで軽量なアプローチを提案する。
ソーシャルなコンテキストにおいて、このアプローチはユーザーとそのデバイス間の物理的およびサイバーなソーシャルインタラクションのデータを利用する。
提案手法の有効性は,実世界の5つのデータセットを用いた3つの実験によって実証された。
論文 参考訳(メタデータ) (2023-06-27T12:53:14Z) - Differentiable Outlier Detection Enable Robust Deep Multimodal Analysis [20.316056261749946]
本稿では,明示的な知識グラフを取り入れたエンドツーエンドのビジョンと言語モデルを提案する。
また,暗黙的ネットワーク演算子を用いた対話型アウト・オブ・ディストリビューション・レイヤを導入する。
実際に,視覚的質問応答,視覚的推論,画像テキスト検索など,複数の視覚および言語下流タスクにモデルを適用した。
論文 参考訳(メタデータ) (2023-02-11T05:46:21Z) - Contextual information integration for stance detection via
cross-attention [59.662413798388485]
スタンス検出は、著者の目標に対する姿勢を特定することを扱う。
既存のスタンス検出モデルの多くは、関連するコンテキスト情報を考慮していないため、制限されている。
文脈情報をテキストとして統合する手法を提案する。
論文 参考訳(メタデータ) (2022-11-03T15:04:29Z) - On-device modeling of user's social context and familiar places from
smartphone-embedded sensor data [7.310043452300736]
ユーザの社会的文脈とその位置をモデル化するための,新しい,教師なし,軽量なアプローチを提案する。
ユーザとそのデバイス間の物理的およびサイバー的ソーシャルインタラクションに関連するデータを活用する。
日常の状況を認識するための3つの機械学習アルゴリズムの性能を示す。
論文 参考訳(メタデータ) (2022-05-18T08:32:26Z) - Perceptual Score: What Data Modalities Does Your Model Perceive? [73.75255606437808]
モデルが入力特徴の異なる部分集合に依存する度合いを評価する指標である知覚スコアを導入する。
近年,視覚的質問応答に対するマルチモーダルモデルでは,前者よりも視覚的データを知覚しにくい傾向がみられた。
知覚スコアを使用することで、スコアをデータサブセットのコントリビューションに分解することで、モデルのバイアスを分析することもできる。
論文 参考訳(メタデータ) (2021-10-27T12:19:56Z) - Context-LGM: Leveraging Object-Context Relation for Context-Aware Object
Recognition [48.5398871460388]
本稿では,オブジェクト・コンテキスト関係を階層的にモデル化する新しいコンテキスト潜在生成モデル(Contextual Latent Generative Model,Context-LGM)を提案する。
文脈的特徴を推定するために、変数自動エンコーダ(VAE)の目的関数を再構成し、対象物に対する後続条件付き分布として文脈的特徴を学習する。
本手法の有効性は,2つのコンテキスト認識オブジェクト認識タスクにおける最先端性能によって検証される。
論文 参考訳(メタデータ) (2021-10-08T11:31:58Z) - CompGuessWhat?!: A Multi-task Evaluation Framework for Grounded Language
Learning [78.3857991931479]
本稿では,属性を用いたグラウンドド言語学習のための評価フレームワークGROLLAを提案する。
また、学習したニューラル表現の品質を評価するためのフレームワークの例として、新しいデータセットCompGuessWhat!?を提案する。
論文 参考訳(メタデータ) (2020-06-03T11:21:42Z) - How Far are We from Effective Context Modeling? An Exploratory Study on
Semantic Parsing in Context [59.13515950353125]
文法に基づく意味解析を行い,その上に典型的な文脈モデリング手法を適用する。
我々は,2つの大きなクロスドメインデータセットに対して,13のコンテキストモデリング手法を評価した。
論文 参考訳(メタデータ) (2020-02-03T11:28:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。