論文の概要: IMAGINE: An Integrated Model of Artificial Intelligence-Mediated
Communication Effects
- arxiv url: http://arxiv.org/abs/2212.08658v1
- Date: Tue, 13 Dec 2022 19:48:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-25 02:53:53.262735
- Title: IMAGINE: An Integrated Model of Artificial Intelligence-Mediated
Communication Effects
- Title(参考訳): IMAGINE:人工知能を用いたコミュニケーション効果の統合モデル
- Authors: Frederic Guerrero-Sole
- Abstract要約: 人工知能を用いたコミュニケーション効果統合モデル(IMAGINE)の提案
提案されている概念的枠組みは、メディアに対する人々の反応の測定とコンテンツのAI生成の間の連続的なリアルタイム接続のシナリオにおいて、研究者が研究を理論化し、行うのを支援することを目的としている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Artificial Intelligence (AI) is transforming all fields of knowledge and
production. From surgery, autonomous driving, to image and video creation, AI
seems to make possible hitherto unimaginable processes of automation and
efficient creation. Media and communication are not an exception, and we are
currently witnessing the dawn of powerful AI tools capable of creating artistic
images from simple keywords, or to capture emotions from facial expression.
These examples may be only the beginning of what can be in the future the
engines for automatic AI real time creation of media content linked to the
emotional and behavioural responses of individuals. Although it may seem we are
still far from there, it is already the moment to adapt our theories about
media to the hypothetical scenario in which content production can be done
without human intervention, and governed by the controlled any reactions of the
individual to the exposure to media content. Following that, I propose the
definition of the Integrated Model of Artificial Intelligence-Mediated
Communication Effects (IMAGINE), and its consequences on the way we understand
media evolution (Scolari, 2012) and we think about media effects (Potter,
2010). The conceptual framework proposed is aimed to help scholars theorizing
and doing research in a scenario of continuous real-time connection between AI
measurement of people's responses to media, and the AI creation of content,
with the objective of optimizing and maximizing the processes of influence.
Parasocial interaction and real-time beautification are used as examples to
model the functioning of the IMAGINE process.
- Abstract(参考訳): 人工知能(AI)は知識と生産のあらゆる分野を変えつつある。
手術から自律運転、画像とビデオの作成に至るまで、AIは想像もつかないような自動化と効率的な創造のプロセスを可能にしているようだ。
メディアとコミュニケーションは例外ではなく、私たちは現在、シンプルなキーワードから芸術的な画像を作成したり、表情から感情を捉えたりできる強力なaiツールの夜明けを目撃しています。
これらの例は、個人の感情的および行動的反応に関連するメディアコンテンツの自動AIリアルタイム作成のためのエンジンとして、将来何ができるかの始まりに過ぎません。
メディアに関する我々の理論を、人間の介入なしにコンテンツが作成できる仮想シナリオに適応させ、メディアコンテンツへの露出に対して個人の反応を制御することによって制御されるのは、まだ遠いように思える。
その後、IMAGINE(Integrated Model of Artificial Intelligence-Mediated Communication Effects)の定義を提案し、メディアの進化を理解する方法にその影響を及ぼし(Scolari, 2012)、メディア効果について考察する(Potter, 2010)。
提案する概念枠組みは、メディアに対する人の反応のai計測とコンテンツのai作成との連続的リアルタイム接続のシナリオにおいて、影響力のプロセスの最適化と最大化を目的とし、研究者が研究を理論的に支援することを目的としている。
パラ社会的相互作用とリアルタイム美化は、IMAGINEプロセスの機能のモデル化の例として用いられる。
関連論文リスト
- KI-Bilder und die Widerständigkeit der Medienkonvergenz: Von primärer zu sekundärer Intermedialität? [0.0]
本稿では,メディアコンバージェンスのプロセスにおけるAI生成画像の統合に関する現在の知見を紹介する。
それは、第一の中間性と第二の中間性という、2つの異なる中間性の概念に基づいている。
現時点では、AIイメージのシームレスな「統合」が、より広いメディアランドスケープに反映されることはあり得ない、というのが氏の主張だ。
論文 参考訳(メタデータ) (2024-06-21T09:15:19Z) - Agent AI: Surveying the Horizons of Multimodal Interaction [83.18367129924997]
エージェントAI(Agent AI)とは、視覚刺激や言語入力、その他の環境データを知覚できる対話型システムである。
我々は,バーチャルリアリティやシミュレートされたシーンを容易に作成し,仮想環境内に具体化されたエージェントと対話できる未来を構想する。
論文 参考訳(メタデータ) (2024-01-07T19:11:18Z) - The Good, The Bad, and Why: Unveiling Emotions in Generative AI [73.94035652867618]
EmotionPromptはAIモデルの性能を向上し、EmotionAttackはそれを妨げうることを示す。
EmotionDecodeによると、AIモデルは人間の脳内のドーパミンのメカニズムに似た感情的な刺激を理解することができる。
論文 参考訳(メタデータ) (2023-12-18T11:19:45Z) - AI-Generated Images as Data Source: The Dawn of Synthetic Era [61.879821573066216]
生成AIは、現実世界の写真によく似た合成画像を作成する可能性を解き放った。
本稿では、これらのAI生成画像を新しいデータソースとして活用するという革新的な概念を探求する。
実際のデータとは対照的に、AI生成データには、未整合のアブリダンスやスケーラビリティなど、大きなメリットがある。
論文 参考訳(メタデータ) (2023-10-03T06:55:19Z) - ArK: Augmented Reality with Knowledge Interactive Emergent Ability [115.72679420999535]
基礎モデルから新しいドメインへの知識記憶の伝達を学習する無限エージェントを開発する。
私たちのアプローチの核心は、Augmented Reality with Knowledge Inference Interaction (ArK)と呼ばれる新しいメカニズムである。
我々のArKアプローチは,大規模な基礎モデルと組み合わせることで,生成された2D/3Dシーンの品質を大幅に向上することを示す。
論文 参考訳(メタデータ) (2023-05-01T17:57:01Z) - A Portrait of Emotion: Empowering Self-Expression through AI-Generated
Art [0.0]
本研究では,創造的表現を通じて著者の認知過程を反映する生成人工知能(AI)の可能性と限界について検討した。
その結果,主イベントに対する著者の感情の記述に基づく画像の嗜好が示された。
生成AIを用いた研究フレームワークは、関連する分野におけるAIベースの介入を設計するのに役立ちます。
論文 参考訳(メタデータ) (2023-04-26T06:54:53Z) - Learning Universal Policies via Text-Guided Video Generation [179.6347119101618]
人工知能の目標は、幅広いタスクを解決できるエージェントを構築することである。
テキスト誘導画像合成の最近の進歩は、複雑な新規画像を生成する印象的な能力を持つモデルを生み出している。
このようなツールがより汎用的なエージェントの構築に利用できるかどうかを検討する。
論文 参考訳(メタデータ) (2023-01-31T21:28:13Z) - Creating Multimodal Interactive Agents with Imitation and
Self-Supervised Learning [20.02604302565522]
SFからの一般的なビジョンは、ロボットはいつか私たちの物理的空間に住み、世界は私たちのように感じ、肉体労働を補助し、自然言語を通して私たちとコミュニケーションする、ということだ。
本稿では,仮想環境の単純化により人間と自然に対話できる人工エージェントを設計する方法について検討する。
シミュレーションされた世界における人間と人間の相互作用の模倣学習は、自己指導型学習と合わせて、多モーダルな対話型エージェントを作るのに十分であることを示す。
論文 参考訳(メタデータ) (2021-12-07T15:17:27Z) - WenLan 2.0: Make AI Imagine via a Multimodal Foundation Model [74.4875156387271]
我々は,膨大なマルチモーダル(視覚的・テキスト的)データを事前学習した新しい基礎モデルを開発する。
そこで本研究では,様々な下流タスクにおいて,最先端の成果が得られることを示す。
論文 参考訳(メタデータ) (2021-10-27T12:25:21Z) - Human in the Loop for Machine Creativity [0.0]
我々は、創造的アプリケーションのための既存のHuman-in-the-loop(HITL)アプローチを概念化する。
モデル,インターフェース,機械の創造性に対する長期的影響について検討し,考察する。
テキスト,視覚,音,その他の情報を結合し,人や環境の自動解析を行うマルチモーダルHITLプロセスを提案する。
論文 参考訳(メタデータ) (2021-10-07T15:42:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。