論文の概要: Gaze-Aware AI: Mathematical modeling of epistemic experience of the Marginalized for Human-Computer Interaction & AI Systems
- arxiv url: http://arxiv.org/abs/2507.19500v1
- Date: Sun, 06 Jul 2025 20:55:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-03 20:19:02.826725
- Title: Gaze-Aware AI: Mathematical modeling of epistemic experience of the Marginalized for Human-Computer Interaction & AI Systems
- Title(参考訳): Gaze-Aware AI:人間-コンピュータインタラクションとAIシステムのためのMarginalizedの疫学経験の数学的モデリング
- Authors: Omkar Suresh Hatti,
- Abstract要約: 本稿では,支配的な文化の規範に適合する自己表現を意識的に修正する人間の条件を定量化する試みを示す。
視線の効果は、いくつかのReddit投稿を分析して研究される。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The proliferation of artificial intelligence provides an opportunity to create psychological spaciousness in society. Spaciousness is defined as the ability to hold diverse interpersonal interactions and forms the basis for vulnerability that leads to authenticity that leads to prosocial behaviors and thus to societal harmony. This paper demonstrates an attempt to quantify, the human conditioning to subconsciously modify authentic self-expression to fit the norms of the dominant culture. Gaze is explored across various marginalized and intersectional groups, using concepts from postmodern philosophy and psychology. The effects of gaze are studied through analyzing a few redacted Reddit posts, only to be discussed in discourse and not endorsement. A mathematical formulation for the Gaze Pressure Index (GPI)-Diff Composite Metric is presented to model the analysis of two sets of conversational spaces in relation to one another. The outcome includes an equation to train Large Language Models (LLMs) - the working mechanism of AI products such as Chat-GPT; and an argument for affirming and inclusive HCI, based on the equation, is presented. The argument is supported by a few principles of Neuro-plasticity, The brain's lifelong capacity to rewire.
- Abstract(参考訳): 人工知能の普及は、社会における心理的な広さを生み出す機会を提供する。
あいまいさは、多様な対人的相互作用を保持する能力として定義され、社会的行動につながる信頼と社会的調和をもたらす脆弱性の基礎を形成している。
本稿では,支配的な文化の規範に適合する自己表現を意識的に修正する人間の条件を定量化する試みを示す。
ガゼはポストモダン哲学と心理学の概念を用いて、様々な辺縁的・交差的なグループで探索されている。
視線の効果は、いくつかのReddit投稿を分析して研究される。
ガゼ圧力指数(GPI)-ディフ複合計量の数学的定式化を行い、2組の会話空間の解析をモデル化する。
この結果には、Chat-GPTのようなAI製品の動作メカニズムであるLarge Language Models(LLM)をトレーニングする方程式が含まれており、この方程式に基づいてHCIを肯定し包括する議論が提示される。
この主張は神経可塑性のいくつかの原則によって支持されている。
関連論文リスト
- AI Through the Human Lens: Investigating Cognitive Theories in Machine Psychology [0.0]
大規模言語モデル(LLM)が,心理学から確立した4つの枠組みの下で,人間のような認知パターンを示すか否かを検討する。
以上の結果から,これらのモデルがコヒーレントな物語を生み出し,肯定的なフレーミングへの感受性を示し,リバティ/抑圧の懸念に沿った道徳的判断を示し,広範囲な合理化によって誘惑される自己矛盾を示すことが示唆された。
論文 参考訳(メタデータ) (2025-06-22T19:58:19Z) - From Human to Machine Psychology: A Conceptual Framework for Understanding Well-Being in Large Language Models [0.0]
本稿では,機械の繁栄の概念を紹介し,PAPERSフレームワークを提案する。
我々の発見は、人間とシステム固有の優先順位の両方を考慮に入れた、AI固有の繁栄モデルを開発することの重要性を浮き彫りにした。
論文 参考訳(メタデータ) (2025-06-14T20:14:02Z) - Deterministic AI Agent Personality Expression through Standard Psychological Diagnostics [0.0]
確立された心理学的枠組みを用いて、AIモデルは決定論的かつ一貫した個性を表現することができることを示す。
GPT-4oやo1のようなより高度なモデルは、特定の個性を表現する上で最も正確であることを示している。
これらの発見は、多様で一貫した個性を持つAIエージェントを作成する基盤を確立する。
論文 参考訳(メタデータ) (2025-03-21T12:12:05Z) - Brain-Model Evaluations Need the NeuroAI Turing Test [4.525325675715108]
アラン・チューリングが提唱した古典的なテストは行動に焦点を当てており、人工エージェントの行動が人間の行動と区別できないことを要求している。
このポジションペーパーは、チューリングテストの標準的な定義はNeuroAIには不完全であると主張している。
これは、振る舞いのみを越えて拡張されるベンチマークであるNeuroAI Turing Test'と呼ばれる、より強力なフレームワークを提案する。
論文 参考訳(メタデータ) (2025-02-22T14:16:28Z) - Social Genome: Grounded Social Reasoning Abilities of Multimodal Models [61.88413918026431]
社会的推論能力は、AIシステムが社会的文脈内でのマルチモーダルなヒューマンコミュニケーションと相互作用を解釈し、応答する上で不可欠である。
SOCIAL GENOMEは,マルチモーダルモデルのきめ細かな基礎的な社会的推論能力を示す最初のベンチマークである。
論文 参考訳(メタデータ) (2025-02-21T00:05:40Z) - Human-like conceptual representations emerge from language prediction [72.5875173689788]
大規模言語モデル(LLMs)は、言語データに対する次世代の予測を通じてのみ訓練され、顕著な人間的な振る舞いを示す。
これらのモデルは、人間に似た概念を発達させ、もしそうなら、そのような概念はどのように表現され、組織化されるのか?
以上の結果から,LLMは言語記述から他の概念に関する文脈的手がかりに関して柔軟に概念を導出できることが示唆された。
これらの結果は、構造化された人間のような概念表現が、現実世界の接地なしに言語予測から自然に現れることを証明している。
論文 参考訳(メタデータ) (2025-01-21T23:54:17Z) - Political Bias in LLMs: Unaligned Moral Values in Agent-centric Simulations [0.0]
モーラル・ファンデーション理論アンケートにおいて,パーソナライズされた言語モデルと人間の反応がどのように一致しているかを検討する。
我々は、オープンソースの生成言語モデルを異なる政治的ペルソナに適応させ、これらのモデルを繰り返し調査し、合成データセットを生成する。
解析の結果,モデルが複数の繰り返しにまたがって不整合な結果をもたらし,高い応答差が生じることがわかった。
論文 参考訳(メタデータ) (2024-08-21T08:20:41Z) - PersLLM: A Personified Training Approach for Large Language Models [66.16513246245401]
データ構築とモデルチューニングを改善するためのフレームワークPersLLMを提案する。
データ利用が不十分な場合には、Chain-of-Thoughtプロンプトやアンチインダクションといった戦略を取り入れます。
厳密な振舞いパターンを設計し,モデルの性格の特異性とダイナミズムを高めるために自動DPOを導入する。
論文 参考訳(メタデータ) (2024-07-17T08:13:22Z) - Machine Psychology [54.287802134327485]
我々は、心理学にインスパイアされた行動実験において、研究のための実りある方向が、大きな言語モデルに係わっていると論じる。
本稿では,本手法が表に示す理論的視点,実験パラダイム,計算解析技術について述べる。
これは、パフォーマンスベンチマークを超えた、生成人工知能(AI)のための「機械心理学」の道を開くものだ。
論文 参考訳(メタデータ) (2023-03-24T13:24:41Z) - Neural Theory-of-Mind? On the Limits of Social Intelligence in Large LMs [77.88043871260466]
私たちは、今日の最大の言語モデルのひとつに、このようなソーシャルインテリジェンスを最初から欠いていることを示しています。
我々は、人中心のNLPアプローチは、マインドの神経理論に対してより効果的であるかもしれないと結論づける。
論文 参考訳(メタデータ) (2022-10-24T14:58:58Z) - Data-driven emotional body language generation for social robotics [58.88028813371423]
社会ロボティクスでは、人間型ロボットに感情の身体的表現を生成する能力を与えることで、人間とロボットの相互作用とコラボレーションを改善することができる。
我々は、手作業で設計されたいくつかの身体表現から学習する深層学習データ駆動フレームワークを実装した。
評価実験の結果, 生成した表現の人間同型とアニマシーは手作りの表現と異なる認識が得られなかった。
論文 参考訳(メタデータ) (2022-05-02T09:21:39Z) - Machine Common Sense [77.34726150561087]
機械の常識は、人工知能(AI)において広範で潜在的に無拘束な問題のままである
本稿では、対人インタラクションのようなドメインに焦点を当てたコモンセンス推論のモデル化の側面について論じる。
論文 参考訳(メタデータ) (2020-06-15T13:59:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。