論文の概要: Split Semantic Detection in Sandplay Images
- arxiv url: http://arxiv.org/abs/2203.00907v3
- Date: Wed, 8 Nov 2023 13:02:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-09 20:54:13.925100
- Title: Split Semantic Detection in Sandplay Images
- Title(参考訳): sandplay画像における分割意味検出
- Authors: Xiaokun Feng, Xiaotang Chen, Jian Jia, Kaiqi Huang
- Abstract要約: 『スプリット』は多くの感情的・人格的問題に関連する典型的な心理学的意味論である。
本研究では,多くの情緒的・人格的問題に関連する典型的な心理的意味論である「スプリット」を研究目標とする。
本稿では,時間とコストのかかる手動分析プロセスを置き換える自動検出モデルを提案する。
- 参考スコア(独自算出の注目度): 30.979725243089213
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Sandplay image, as an important psychoanalysis carrier, is a visual scene
constructed by the client selecting and placing sand objects (e.g., sand,
river, human figures, animals, vegetation, buildings, etc.). As the projection
of the client's inner world, it contains high-level semantic information
reflecting the client's subjective psychological states, which is different
from the common natural image scene that only contains the objective basic
semantics (e.g., object's name, attribute, bounding box, etc.). In this work,
we take "split" which is a typical psychological semantics related to many
emotional and personality problems as the research goal, and we propose an
automatic detection model, which can replace the time-consuming and expensive
manual analysis process. To achieve that, we design a distribution map
generation method projecting the semantic judgment problem into a visual
problem, and a feature dimensionality reduction and extraction algorithm which
can provide a good representation of split semantics. Besides, we built a
sandplay datasets by collecting one sample from each client and inviting 5
therapists to label each sample, which has a large data cost. Experimental
results demonstrated the effectiveness of our proposed method.
- Abstract(参考訳): サンドプレイイメージ(サンドプレイイメージ、英: sandplay image)は、重要な精神分析キャリアとして、顧客が砂の物体(例えば、砂、川、人格、動物、植生、建物など)を選択し配置する視覚シーンである。
クライアントの内部世界を投影するものとして、クライアントの主観的な心理状態を反映した高レベルな意味情報を含んでいるが、これは客観的な基本的な意味(例えば、オブジェクトの名前、属性、バウンディングボックスなど)のみを含む共通の自然画像シーンとは異なる。
本研究では,多くの感情的・人格的問題に関連する典型的な心理的意味論であるスプリット(split)を研究目標とし,時間とコストのかかる手動分析プロセスを置き換える自動検出モデルを提案する。
これを実現するために,視覚問題に意味判断問題を投影する分布地図生成法と,分割意味論の表現を良好に表現できる特徴次元縮小抽出アルゴリズムを考案する。
さらに、各クライアントから1つのサンプルを収集し、5人のセラピストに各サンプルにラベルを付けることで、大きなデータコストを持つサンドプレイデータセットを構築しました。
実験の結果,提案手法の有効性が示された。
関連論文リスト
- ResVG: Enhancing Relation and Semantic Understanding in Multiple Instances for Visual Grounding [42.10086029931937]
ビジュアルグラウンドティングは、自然言語クエリに基づいて画像に参照されるオブジェクトをローカライズすることを目的としている。
既存の手法では、画像に複数の障害がある場合、大幅な性能低下を示す。
本稿では,Relation and Semantic-sensitive Visual Grounding (ResVG)モデルを提案する。
論文 参考訳(メタデータ) (2024-08-29T07:32:01Z) - StableSemantics: A Synthetic Language-Vision Dataset of Semantic Representations in Naturalistic Images [5.529078451095096]
視覚シーンの意味を理解することはコンピュータビジョンの基本的な課題である。
テキストと画像のフレームワークの最近の進歩は、自然のシーン統計を暗黙的に捉えるモデルにつながっている。
提案するStableSemanticsは、224万件の人為的なプロンプト、処理された自然言語キャプション、200万以上の合成画像、そして個々の名詞のチャンクに対応する1000万のアテンションマップからなるデータセットである。
論文 参考訳(メタデータ) (2024-06-19T17:59:40Z) - Visual Context-Aware Person Fall Detection [52.49277799455569]
画像中の個人とオブジェクトを半自動分離するセグメンテーションパイプラインを提案する。
ベッド、椅子、車椅子などの背景オブジェクトは、転倒検知システムに挑戦し、誤ったポジティブアラームを引き起こす。
トレーニング中のオブジェクト固有のコンテキスト変換が、この課題を効果的に軽減することを示す。
論文 参考訳(メタデータ) (2024-04-11T19:06:36Z) - Depth-aware Panoptic Segmentation [1.4170154234094008]
本稿では, パンオプティカルセグメンテーションのための新しいCNN手法を提案する。
そこで本研究では,同じ物体に対して画素の割り当てを行う深度対応ダイス損失項を提案する。
Cityscapesデータセットで行った実験では、提案手法が誤って1つのインスタンスにマージされたオブジェクトの数を減少させることを示した。
論文 参考訳(メタデータ) (2024-03-21T08:06:49Z) - Measuring the Interpretability of Unsupervised Representations via
Quantized Reverse Probing [97.70862116338554]
本稿では,自己教師付き表現の解釈可能性の測定問題について検討する。
我々は、後者を、表現と手動でラベル付けされた概念の空間の間の相互情報を推定するものとして定式化する。
提案手法は,多人数の自己教師付き表現の評価に利用し,解釈可能性による評価を行う。
論文 参考訳(メタデータ) (2022-09-07T16:18:50Z) - Seeking Subjectivity in Visual Emotion Distribution Learning [93.96205258496697]
視覚感情分析(VEA)は、人々の感情を異なる視覚刺激に向けて予測することを目的としている。
既存の手法では、集団投票プロセスにおいて固有の主観性を無視して、統合されたネットワークにおける視覚的感情分布を予測することが多い。
視覚的感情分布の主観性を調べるために,新しいテキストサブジェクティビティ評価ネットワーク(SAMNet)を提案する。
論文 参考訳(メタデータ) (2022-07-25T02:20:03Z) - Discovering Objects that Can Move [55.743225595012966]
手動ラベルなしでオブジェクトを背景から分離する、オブジェクト発見の問題について検討する。
既存のアプローチでは、色、テクスチャ、位置などの外観の手がかりを使用して、ピクセルをオブジェクトのような領域に分類する。
私たちは、動的オブジェクト -- 世界で独立して動くエンティティ -- にフォーカスすることを選びます。
論文 参考訳(メタデータ) (2022-03-18T21:13:56Z) - Affect-DML: Context-Aware One-Shot Recognition of Human Affect using
Deep Metric Learning [29.262204241732565]
既存の方法は、すべての関心の感情に注釈付きトレーニングの例として優先順位が与えられると仮定している。
我々は、文脈における感情のワンショット認識を概念化し、単一のサポートサンプルからより細かい粒子レベルの人間の影響状態を認識することを目的とした新しい問題である。
モデルの全変種は、ランダムなベースラインよりも明らかに優れており、セマンティックシーンのコンテキストを活用することで、学習された表現を一貫して改善している。
論文 参考訳(メタデータ) (2021-11-30T10:35:20Z) - Personalized Image Semantic Segmentation [58.980245748434]
ラベルのないパーソナライズされた画像に対して、データのパーソナライズされた特徴を調査することにより、より正確なセグメンテーション結果を生成する。
画像のセグメント化時に画像間コンテキストを組み込んだベースライン手法を提案する。
コードとPSSデータセットは公開されます。
論文 参考訳(メタデータ) (2021-07-24T04:03:11Z) - Grounded and Controllable Image Completion by Incorporating Lexical
Semantics [111.47374576372813]
Lexical Semantic Image Completion (LSIC)は、芸術、デザイン、遺産保護に潜在的な応用をもたらす可能性がある。
視覚的文脈と語彙的文脈の両方に忠実な結果を生成することを提唱する。
LSICの大きな課題の1つは、ビジュアル・セマンティック・コンテキストの構造をモデル化し整合させることである。
論文 参考訳(メタデータ) (2020-02-29T16:54:21Z) - Instance Segmentation of Visible and Occluded Regions for Finding and
Picking Target from a Pile of Objects [25.836334764387498]
本研究では,対象物体の発見・把握が可能な物体の山から対象物を選択するロボットシステムを提案する。
既存のインスタンスセグメンテーションモデルを新しいリルックアーキテクチャで拡張し、モデルがインスタンス間の関係を明示的に学習する。
また、画像合成により、人間のアノテーションを使わずに新しいオブジェクトを処理できるシステムを構築する。
論文 参考訳(メタデータ) (2020-01-21T12:28:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。