論文の概要: IMAGINE: An Integrated Model of Artificial Intelligence-Mediated
Communication Effects
- arxiv url: http://arxiv.org/abs/2212.08658v1
- Date: Tue, 13 Dec 2022 19:48:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-25 02:53:53.262735
- Title: IMAGINE: An Integrated Model of Artificial Intelligence-Mediated
Communication Effects
- Title(参考訳): IMAGINE:人工知能を用いたコミュニケーション効果の統合モデル
- Authors: Frederic Guerrero-Sole
- Abstract要約: 人工知能を用いたコミュニケーション効果統合モデル(IMAGINE)の提案
提案されている概念的枠組みは、メディアに対する人々の反応の測定とコンテンツのAI生成の間の連続的なリアルタイム接続のシナリオにおいて、研究者が研究を理論化し、行うのを支援することを目的としている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Artificial Intelligence (AI) is transforming all fields of knowledge and
production. From surgery, autonomous driving, to image and video creation, AI
seems to make possible hitherto unimaginable processes of automation and
efficient creation. Media and communication are not an exception, and we are
currently witnessing the dawn of powerful AI tools capable of creating artistic
images from simple keywords, or to capture emotions from facial expression.
These examples may be only the beginning of what can be in the future the
engines for automatic AI real time creation of media content linked to the
emotional and behavioural responses of individuals. Although it may seem we are
still far from there, it is already the moment to adapt our theories about
media to the hypothetical scenario in which content production can be done
without human intervention, and governed by the controlled any reactions of the
individual to the exposure to media content. Following that, I propose the
definition of the Integrated Model of Artificial Intelligence-Mediated
Communication Effects (IMAGINE), and its consequences on the way we understand
media evolution (Scolari, 2012) and we think about media effects (Potter,
2010). The conceptual framework proposed is aimed to help scholars theorizing
and doing research in a scenario of continuous real-time connection between AI
measurement of people's responses to media, and the AI creation of content,
with the objective of optimizing and maximizing the processes of influence.
Parasocial interaction and real-time beautification are used as examples to
model the functioning of the IMAGINE process.
- Abstract(参考訳): 人工知能(AI)は知識と生産のあらゆる分野を変えつつある。
手術から自律運転、画像とビデオの作成に至るまで、AIは想像もつかないような自動化と効率的な創造のプロセスを可能にしているようだ。
メディアとコミュニケーションは例外ではなく、私たちは現在、シンプルなキーワードから芸術的な画像を作成したり、表情から感情を捉えたりできる強力なaiツールの夜明けを目撃しています。
これらの例は、個人の感情的および行動的反応に関連するメディアコンテンツの自動AIリアルタイム作成のためのエンジンとして、将来何ができるかの始まりに過ぎません。
メディアに関する我々の理論を、人間の介入なしにコンテンツが作成できる仮想シナリオに適応させ、メディアコンテンツへの露出に対して個人の反応を制御することによって制御されるのは、まだ遠いように思える。
その後、IMAGINE(Integrated Model of Artificial Intelligence-Mediated Communication Effects)の定義を提案し、メディアの進化を理解する方法にその影響を及ぼし(Scolari, 2012)、メディア効果について考察する(Potter, 2010)。
提案する概念枠組みは、メディアに対する人の反応のai計測とコンテンツのai作成との連続的リアルタイム接続のシナリオにおいて、影響力のプロセスの最適化と最大化を目的とし、研究者が研究を理論的に支援することを目的としている。
パラ社会的相互作用とリアルタイム美化は、IMAGINEプロセスの機能のモデル化の例として用いられる。
関連論文リスト
- Movie Gen: SWOT Analysis of Meta's Generative AI Foundation Model for Transforming Media Generation, Advertising, and Entertainment Industries [0.8463972278020965]
本稿では,最先端な生成AI基盤モデルであるMetas Movie GenのSWOT解析を包括的に行う。
我々は、高解像度のビデオ生成、正確な編集、シームレスなオーディオ統合など、その強みを探求する。
生成AIを取り巻く規制的・倫理的考察を,コンテンツ信頼性,文化的表現,責任ある利用といった問題に焦点をあてて検討する。
論文 参考訳(メタデータ) (2024-12-05T03:01:53Z) - Prediction with Action: Visual Policy Learning via Joint Denoising Process [14.588908033404474]
PADは、画像予測とロボットアクションを統合する視覚ポリシー学習フレームワークである。
DiTは画像とロボット状態をシームレスに統合し、将来の画像とロボット動作の同時予測を可能にする。
Padは従来の手法よりも優れており、Metaworldのベンチマークで26.3%の大幅な改善を実現している。
論文 参考訳(メタデータ) (2024-11-27T09:54:58Z) - Maia: A Real-time Non-Verbal Chat for Human-AI Interaction [10.580858171606167]
我々はテキストベースのヒューマン-AIインタラクションの代替案を提案する。
非言語的な視覚コミュニケーションを活用することで、表情、頭と体の動きを通じて、エンゲージメントを高めることを目指している。
我々のアプローチは芸術に特化せず、様々な絵画、アニメーション、アバターに適応することができる。
論文 参考訳(メタデータ) (2024-02-09T13:07:22Z) - Agent AI: Surveying the Horizons of Multimodal Interaction [83.18367129924997]
エージェントAI(Agent AI)とは、視覚刺激や言語入力、その他の環境データを知覚できる対話型システムである。
我々は,バーチャルリアリティやシミュレートされたシーンを容易に作成し,仮想環境内に具体化されたエージェントと対話できる未来を構想する。
論文 参考訳(メタデータ) (2024-01-07T19:11:18Z) - The Good, The Bad, and Why: Unveiling Emotions in Generative AI [73.94035652867618]
EmotionPromptはAIモデルの性能を向上し、EmotionAttackはそれを妨げうることを示す。
EmotionDecodeによると、AIモデルは人間の脳内のドーパミンのメカニズムに似た感情的な刺激を理解することができる。
論文 参考訳(メタデータ) (2023-12-18T11:19:45Z) - AI-Generated Images as Data Source: The Dawn of Synthetic Era [61.879821573066216]
生成AIは、現実世界の写真によく似た合成画像を作成する可能性を解き放った。
本稿では、これらのAI生成画像を新しいデータソースとして活用するという革新的な概念を探求する。
実際のデータとは対照的に、AI生成データには、未整合のアブリダンスやスケーラビリティなど、大きなメリットがある。
論文 参考訳(メタデータ) (2023-10-03T06:55:19Z) - ArK: Augmented Reality with Knowledge Interactive Emergent Ability [115.72679420999535]
基礎モデルから新しいドメインへの知識記憶の伝達を学習する無限エージェントを開発する。
私たちのアプローチの核心は、Augmented Reality with Knowledge Inference Interaction (ArK)と呼ばれる新しいメカニズムである。
我々のArKアプローチは,大規模な基礎モデルと組み合わせることで,生成された2D/3Dシーンの品質を大幅に向上することを示す。
論文 参考訳(メタデータ) (2023-05-01T17:57:01Z) - Learning Universal Policies via Text-Guided Video Generation [179.6347119101618]
人工知能の目標は、幅広いタスクを解決できるエージェントを構築することである。
テキスト誘導画像合成の最近の進歩は、複雑な新規画像を生成する印象的な能力を持つモデルを生み出している。
このようなツールがより汎用的なエージェントの構築に利用できるかどうかを検討する。
論文 参考訳(メタデータ) (2023-01-31T21:28:13Z) - WenLan 2.0: Make AI Imagine via a Multimodal Foundation Model [74.4875156387271]
我々は,膨大なマルチモーダル(視覚的・テキスト的)データを事前学習した新しい基礎モデルを開発する。
そこで本研究では,様々な下流タスクにおいて,最先端の成果が得られることを示す。
論文 参考訳(メタデータ) (2021-10-27T12:25:21Z) - Human in the Loop for Machine Creativity [0.0]
我々は、創造的アプリケーションのための既存のHuman-in-the-loop(HITL)アプローチを概念化する。
モデル,インターフェース,機械の創造性に対する長期的影響について検討し,考察する。
テキスト,視覚,音,その他の情報を結合し,人や環境の自動解析を行うマルチモーダルHITLプロセスを提案する。
論文 参考訳(メタデータ) (2021-10-07T15:42:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。