論文の概要: COLIBRI Fuzzy Model: Color Linguistic-Based Representation and Interpretation
- arxiv url: http://arxiv.org/abs/2507.11488v1
- Date: Tue, 15 Jul 2025 17:01:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-16 19:46:03.198962
- Title: COLIBRI Fuzzy Model: Color Linguistic-Based Representation and Interpretation
- Title(参考訳): COLIBRIファジィモデル:色彩言語に基づく表現と解釈
- Authors: Pakizar Shamoi, Nuray Toganas, Muragul Muratbekova, Elnara Kadyrgali, Adilet Yerkin, Ayan Igali, Malika Ziyada, Ayana Adilova, Aron Karatayev, Yerdauit Torekhan,
- Abstract要約: 本稿では,人間の知覚に基づくファジィカラーモデル(COLIBRI)を導入し,計算色表現と人間の視覚知覚のギャップを埋める。
提案モデルはファジィ集合と論理を用いて色分類のためのフレームワークを作成する。
我々の発見は、デザイン、人工知能、マーケティング、人間とコンピュータの相互作用といった分野において重要である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Colors are omnipresent in today's world and play a vital role in how humans perceive and interact with their surroundings. However, it is challenging for computers to imitate human color perception. This paper introduces the Human Perception-Based Fuzzy Color Model, COLIBRI (Color Linguistic-Based Representation and Interpretation), designed to bridge the gap between computational color representations and human visual perception. The proposed model uses fuzzy sets and logic to create a framework for color categorization. Using a three-phase experimental approach, the study first identifies distinguishable color stimuli for hue, saturation, and intensity through preliminary experiments, followed by a large-scale human categorization survey involving more than 1000 human subjects. The resulting data are used to extract fuzzy partitions and generate membership functions that reflect real-world perceptual uncertainty. The model incorporates a mechanism for adaptation that allows refinement based on feedback and contextual changes. Comparative evaluations demonstrate the model's alignment with human perception compared to traditional color models, such as RGB, HSV, and LAB. To the best of our knowledge, no previous research has documented the construction of a model for color attribute specification based on a sample of this size or a comparable sample of the human population (n = 2496). Our findings are significant for fields such as design, artificial intelligence, marketing, and human-computer interaction, where perceptually relevant color representation is critical.
- Abstract(参考訳): 色は今日の世界において一様であり、人間が周囲をどう知覚し、どのように相互作用するかにおいて重要な役割を担っている。
しかし、コンピュータが人間の色知覚を模倣することは困難である。
本稿では,人間の知覚に基づくファジィカラーモデルであるCOLIBRI(Color Linguistic-Based Representation and Interpretation)を紹介する。
提案モデルはファジィ集合と論理を用いて色分類のためのフレームワークを作成する。
3段階の実験手法を用いて、予備実験を通じて色覚、彩度、強度の区別可能な色覚を識別し、続いて1000人以上の被験者を対象とする大規模な人格分類調査を行った。
得られたデータはファジィパーティションを抽出し、現実世界の知覚の不確実性を反映したメンバシップ関数を生成する。
このモデルには、フィードバックと文脈の変化に基づいた改善を可能にする適応のメカニズムが組み込まれている。
比較評価では、RGB、HSV、LABといった従来の色モデルと比較して、モデルと人間の知覚との整合性を示す。
我々の知る限りでは、これまでの研究では、この大きさのサンプルや、ヒトの個体数に匹敵するサンプル(n = 2496)に基づいて、色属性仕様のモデルの構築が文書化されていない。
我々の発見は、視覚的に関係のある色表現が重要であるデザイン、人工知能、マーケティング、人間とコンピュータの相互作用といった分野において重要である。
関連論文リスト
- Color in Visual-Language Models: CLIP deficiencies [1.0159205678719043]
この研究は、現在人工知能において最も影響力のあるVML(ビジュアル言語モデル)であるCLIP(Contrastive Language- Image Pre-training)において、色がどのようにコード化されているかを探る。
a)色の概念にあまり関係のない無彩色刺激に対する明確な偏見、(b)他の視覚情報よりもテキストを優先する傾向である。
論文 参考訳(メタデータ) (2025-02-06T19:38:12Z) - Human-Object Interaction Detection Collaborated with Large Relation-driven Diffusion Models [65.82564074712836]
テキストと画像の拡散モデルに光を流す新しいHOI検出器であるDIFfusionHOIを紹介する。
まず、埋め込み空間における人間と物体の関係パターンの表現をインバージョンベースで学習する戦略を考案する。
これらの学習された関係埋め込みはテキストのプロンプトとして機能し、スタイア拡散モデルが特定の相互作用を記述する画像を生成する。
論文 参考訳(メタデータ) (2024-10-26T12:00:33Z) - When Does Perceptual Alignment Benefit Vision Representations? [76.32336818860965]
視覚モデル表現と人間の知覚的判断との整合がユーザビリティに与える影響について検討する。
モデルと知覚的判断を一致させることで、多くの下流タスクで元のバックボーンを改善する表現が得られることがわかった。
その結果,人間の知覚的知識に関する帰納バイアスを視覚モデルに注入することは,より良い表現に寄与することが示唆された。
論文 参考訳(メタデータ) (2024-10-14T17:59:58Z) - Evaluating Multiview Object Consistency in Humans and Image Models [68.36073530804296]
我々は、物体の形状に関するゼロショット視覚的推論を必要とする認知科学の実験的設計を活用する。
我々は500人以上の参加者から行動データの35万件の試行を収集した。
次に、一般的な視覚モデルの性能を評価する。
論文 参考訳(メタデータ) (2024-09-09T17:59:13Z) - Comparative Analysis Of Color Models For Human Perception And Visual Color Difference [0.0]
この研究は、RGB、HSV、HSL、XYZ、CIELAB、CIELUVなどの色モデルを評価し、人間の色知覚の正確性を評価する。
画像処理では,デジタルデザインから品質管理に至るまで,色差の正確な評価が不可欠である。
論文 参考訳(メタデータ) (2024-06-27T20:41:49Z) - DDI-CoCo: A Dataset For Understanding The Effect Of Color Contrast In
Machine-Assisted Skin Disease Detection [51.92255321684027]
皮膚のトーンと色差効果の相互作用について検討し,色差が皮膚のトーン間のモデル性能バイアスの新たな原因となる可能性が示唆された。
我々の研究は皮膚疾患の検出を改善するために皮膚科のAIに補完的な角度を提供する。
論文 参考訳(メタデータ) (2024-01-24T07:45:24Z) - Divergences in Color Perception between Deep Neural Networks and Humans [3.0315685825606633]
我々はディープニューラルネットワーク(DNN)におけるカラー埋め込みの知覚的コヒーレンスを評価する実験を開発した。
これらのアルゴリズムがオンライン調査によって収集された人間の色類似性判定の精度を評価する。
本研究では,ウェーブレット分解に基づく色知覚モデルとDNN性能を比較した。
論文 参考訳(メタデータ) (2023-09-11T20:26:40Z) - Color Aesthetics: Fuzzy based User-driven Method for Harmony and
Preference Prediction [0.0]
色に対する知覚応答のすべてのタイプを定量的に評価する手法を提案する。
カラースキームの好みは、基本色と色調和の格付けを組み合わせることで予測できる。
アパレル調整の文脈では、衣服の色に基づいてルックの好みを予測することができる。
論文 参考訳(メタデータ) (2023-08-29T15:56:38Z) - ColorSense: A Study on Color Vision in Machine Visual Recognition [57.916512479603064]
視覚認識ベンチマークから,前景や背景色ラベルの非自明なアノテーション110,000点を収集する。
色識別のレベルがマシン認識モデルの性能に与える影響を実証することにより、データセットの使用を検証した。
その結果,分類や局所化などの物体認識タスクは,色覚バイアスの影響を受けやすいことが示唆された。
論文 参考訳(メタデータ) (2022-12-16T18:51:41Z) - Can Language Models Encode Perceptual Structure Without Grounding? A
Case Study in Color [18.573415435334105]
我々は,知覚的に有意な距離測定値を持つ色空間であるCIELABで表されるモノレキセミックカラー用語とカラーチップのデータセットを用いる。
この空間における色の構造的アライメントをテキスト由来の色項表現で評価する2つの手法を用いて,有意な対応性を見出した。
温かい色は、平均すると、より涼しい色よりも知覚的な色空間に合わせた方がよいことがわかりました。
論文 参考訳(メタデータ) (2021-09-13T17:09:40Z) - Assessing The Importance Of Colours For CNNs In Object Recognition [70.70151719764021]
畳み込みニューラルネットワーク(CNN)は相反する性質を示すことが示されている。
CNNが予測をしながら色情報に大きく依存していることを実証します。
congruent, greyscale, incongruent画像の合同画像で学習したモデルを評価する。
論文 参考訳(メタデータ) (2020-12-12T22:55:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。