論文の概要: A Robot Walks into a Bar: Can Language Models Serve asCreativity Support Tools for Comedy? An Evaluation of LLMs' Humour Alignment with Comedians
- arxiv url: http://arxiv.org/abs/2405.20956v1
- Date: Fri, 31 May 2024 15:55:51 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-03 13:48:55.090346
- Title: A Robot Walks into a Bar: Can Language Models Serve asCreativity Support Tools for Comedy? An Evaluation of LLMs' Humour Alignment with Comedians
- Title(参考訳): ロボットがバーに足を踏み入れる: 言語モデルはコメディーの満足度支援ツールとして生き残ることができるか? : コメディアンによるLLMのユーモアアライメントの評価
- Authors: Piotr Wojciech Mirowski, Juliette Love, Kory W. Mathewson, Shakir Mohamed,
- Abstract要約: オーディエンスの前でライブショーを行う20人のプロコメディアンに,人工知能を芸術的プロセスで使用するインタビューを行った。
「我が研究は、片手、有害な言論、他方、抵抗、風刺、パンチアップの実践としての「攻撃」の言葉の微妙な相違に関する学問を拡げている。」
- 参考スコア(独自算出の注目度): 3.920479817512432
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We interviewed twenty professional comedians who perform live shows in front of audiences and who use artificial intelligence in their artistic process as part of 3-hour workshops on ``AI x Comedy'' conducted at the Edinburgh Festival Fringe in August 2023 and online. The workshop consisted of a comedy writing session with large language models (LLMs), a human-computer interaction questionnaire to assess the Creativity Support Index of AI as a writing tool, and a focus group interrogating the comedians' motivations for and processes of using AI, as well as their ethical concerns about bias, censorship and copyright. Participants noted that existing moderation strategies used in safety filtering and instruction-tuned LLMs reinforced hegemonic viewpoints by erasing minority groups and their perspectives, and qualified this as a form of censorship. At the same time, most participants felt the LLMs did not succeed as a creativity support tool, by producing bland and biased comedy tropes, akin to ``cruise ship comedy material from the 1950s, but a bit less racist''. Our work extends scholarship about the subtle difference between, one the one hand, harmful speech, and on the other hand, ``offensive'' language as a practice of resistance, satire and ``punching up''. We also interrogate the global value alignment behind such language models, and discuss the importance of community-based value alignment and data ownership to build AI tools that better suit artists' needs.
- Abstract(参考訳): 我々は2023年8月にエディンバラ・フェスティバル・フランジで行われた「AI x Comedy」のワークショップの一環として,聴衆の前でライブショーを行う20人のプロコメディアンにインタビューを行った。
ワークショップは、大規模言語モデル(LLMs)によるコメディ執筆セッション、AIの創造性サポート指標を記述ツールとして評価するための人間とコンピュータのインタラクションのアンケート、AIの使用の動機とプロセスに対するコメディアンの疑問、バイアス、検閲、著作権に関する倫理的懸念などで構成された。
参加者は、安全フィルタリングや指導訓練のLLMで使用されている既存のモデレーション戦略は、少数派とその視点を消去することでヘゲモニックな視点を強化し、検閲の一形態としてこれを認定した。
同時に、ほとんどの参加者は、LLMが創造性支援ツールとして成功しなかったと感じ、1950年代の「船の喜劇の素材を掘り下げるが、少し人種差別的でない」というような、白地と偏見のある喜劇のトロープを制作した。
我々の研究は、一方が有害な言論であり、他方が抵抗、風刺、そして '`punching up'' の実践である '`offensive'' 言語との微妙な相違についての学問を拡張している。
我々はまた、そのような言語モデルの背後にあるグローバルな価値アライメントを疑問視し、アーティストのニーズに合うAIツールを構築するために、コミュニティベースの価値アライメントとデータオーナシップの重要性について議論する。
関連論文リスト
- Large Language Models can impersonate politicians and other public figures [47.2573979612036]
大規模言語モデル(LLM)のような現代のAI技術は、メイクアップコンテンツで公開情報領域を汚染する可能性がある。
本稿では,英国社会の横断的な研究結果を紹介する。
LLMは、英国で放送された政治討論プログラムの一部である議論の質問に対する応答を生成することができる。
論文 参考訳(メタデータ) (2024-07-09T11:16:19Z) - Inclusivity in Large Language Models: Personality Traits and Gender Bias in Scientific Abstracts [49.97673761305336]
我々は,3つの大きな言語モデル (LLM) を,人間の物語スタイルと潜在的な性別バイアスに適合させることで評価した。
以上の結果から,これらのモデルは一般的にヒトの投稿内容によく似たテキストを生成するが,スタイル的特徴の変化は有意な性差を示すことが示唆された。
論文 参考訳(メタデータ) (2024-06-27T19:26:11Z) - Designing and Evaluating Dialogue LLMs for Co-Creative Improvised Theatre [48.19823828240628]
本研究では,Edinburgh Festival Fringeで1ヶ月のライブショーで展開されたLarge Language Models(LLMs)について紹介する。
オンザスポット多人数対話の技術的能力と制約について検討する。
我々のHuman-in-the-loop法は、文脈関連応答を生成する上で、これらのLCMの課題を浮き彫りにしている。
論文 参考訳(メタデータ) (2024-05-11T23:19:42Z) - Authors' Values and Attitudes Towards AI-bridged Scalable
Personalization of Creative Language Arts [29.143980269292204]
ジェネレーティブAIは、インタラクティブメディアの新たな形式、AIをブリッジしたクリエイティブな言語芸術を作り出す可能性がある。
我々は8つのジャンルにわたる18人の著者とのインタビュー研究を行った。
著者,アーティファクト,オーディエンス間のダイナミクスから得られた3つのメリットを特定した。
AIでブリッジされたCLAは、著者の懸念とともに、これらのメリットを促進または削減する方法を見つけました。
論文 参考訳(メタデータ) (2024-03-01T10:53:10Z) - The Self 2.0: How AI-Enhanced Self-Clones Transform Self-Perception and
Improve Presentation Skills [9.495191491787908]
本研究は、AI生成デジタルセルフクローンがオンラインプレゼンテーションスキル改善に与える影響について検討する。
自己記録ビデオ(制御)と自己記録ビデオ(AIグループ)を比較した。
本研究は, 自己クローンの倫理的利用を推奨し, スキル開発における感情的・認知的側面を高めることを目的とする。
論文 参考訳(メタデータ) (2023-10-23T17:20:08Z) - A Video Is Worth 4096 Tokens: Verbalize Videos To Understand Them In
Zero Shot [67.00455874279383]
そこで本研究では,自然言語による記述を生成するために長編動画を音声化し,生成したストーリーの映像理解タスクを実行することを提案する。
提案手法は,ゼロショットであるにもかかわらず,ビデオ理解のための教師付きベースラインよりもはるかに優れた結果が得られる。
ストーリー理解ベンチマークの欠如を緩和するため,我々は,説得戦略の識別に関する計算社会科学における重要な課題に関する最初のデータセットを公開している。
論文 参考訳(メタデータ) (2023-05-16T19:13:11Z) - Computational Language Acquisition with Theory of Mind [84.2267302901888]
我々は、心の理論(ToM)を備えた言語学習エージェントを構築し、その学習過程への影響を測定する。
重み付けされたToMリスナーコンポーネントを用いた学習話者は,画像参照ゲームの設定において,性能向上につながることがわかった。
論文 参考訳(メタデータ) (2023-03-02T18:59:46Z) - Learning to Dub Movies via Hierarchical Prosody Models [167.6465354313349]
テキスト、ビデオクリップ、レファレンスオーディオが与えられたとき、映画ダビング(Visual Voice clone V2C)タスクは、所望の話者音声を参照としてビデオに提示された話者の感情にマッチした音声を生成することを目的としている。
本稿では,これらの問題に階層的韻律モデルを用いて対処する新しい映画ダビングアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-12-08T03:29:04Z) - Co-Writing Screenplays and Theatre Scripts with Language Models: An
Evaluation by Industry Professionals [5.7445938562326635]
ドラマトロンは、タイトル、キャラクター、物語のビート、場所の説明、対話を伴うコヒーレントな脚本と脚本を生成する。
ドラマトロンのインタラクティブな共同制作システムとしての有用性を示す。
我々は,共同創造性に対するDramatronの適合性,盗作や偏見を含む倫理的考察,そしてそのようなツールの設計と展開のための参加モデルについて議論する。
論文 参考訳(メタデータ) (2022-09-29T17:26:22Z) - Collaborative Storytelling with Human Actors and AI Narrators [2.8575516056239576]
GPT-3 citebrown 2020 を用いた物語のコナレーションについて報告する。
AIシステムは、人間の俳優がシーンを演じている間、プロットの進行とキャラクターの弧を追跡する必要がある。
論文 参考訳(メタデータ) (2021-09-29T21:21:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。