論文の概要: BrAIcht, a theatrical agent that speaks like Bertolt Brecht's characters
- arxiv url: http://arxiv.org/abs/2504.20552v1
- Date: Tue, 29 Apr 2025 08:55:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:54.817552
- Title: BrAIcht, a theatrical agent that speaks like Bertolt Brecht's characters
- Title(参考訳): ブレーヒト(Bertolt Brecht)は、バートルト・ブレヒトのキャラクターのように話す演劇エージェント。
- Authors: Baz Roland, Kristina Malyseva, Anna Pappa, Tristan Cazenave,
- Abstract要約: このプロジェクトは、Bertolt Brechtの独特なスタイルで対話を生成するAI会話エージェントであるBrAIchtを紹介する。
BrAIchtは、70億のパラメータを持つ大きな言語モデルで、ドイツ語タスクに適したベースであるLlama2の修正版である、ドイツ語のLeoLMを使用して微調整されている。
- 参考スコア(独自算出の注目度): 2.9310139051766115
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This project introduces BrAIcht, an AI conversational agent that creates dialogues in the distinctive style of the famous German playwright Bertolt Brecht. BrAIcht is fine-tuned using German LeoLM, a large language model with 7 billion parameters and a modified version of the base Llama2 suitable for German language tasks. For fine-tuning, 29 plays of Bertolt Brecht and 907 of other German plays that are stylistically similar to Bertolt Brecht are used to form a more di-erse dataset. Due to the limited memory capacity, a parameterefficient fine-tuning technique called QLoRA is implemented to train the large language model. The results, based on BLEU score and perplexity, show very promising performance of BrAIcht in generating dialogues in the style of Bertolt Brecht.
- Abstract(参考訳): このプロジェクトは、有名なドイツの劇作家ベルトルト・ブレヒトの独特のスタイルで対話を生成するAI会話エージェントであるBrAIchtを紹介している。
BrAIchtは、70億のパラメータを持つ大きな言語モデルで、ドイツ語タスクに適したベースであるLlama2の修正版である、ドイツ語のLeoLMを使用して微調整されている。
微調整には、ベルトルト・ブレヒトの29の戯曲と、ベルトルト・ブレヒトとスタイリスティックに類似した907の他のドイツの戯曲が、よりディアース的なデータセットを形成するために使用される。
メモリ容量が限られているため、QLoRAと呼ばれるパラメータ効率の細かい調整技術が実装され、大きな言語モデルを訓練する。
BLEUのスコアとパープレキシティを基にしたこの結果は、ベルトルト・ブレヒトのスタイルで対話を生成する上で、BrAIchtの非常に有望なパフォーマンスを示している。
関連論文リスト
- KwaiChat: A Large-Scale Video-Driven Multilingual Mixed-Type Dialogue Corpus [69.46707346122113]
本稿では,人間間ビデオ駆動型多言語混在型対話コーパスを提案する。
KwaiChatのコーパスには合計93,209の動画と246,080の対話があり、4つの対話タイプ、30のドメイン、4つの言語、13のトピックが含まれている。
KwaiChat上での 7 つの異なる LLM の解析により、GPT-4o が最高の性能を発揮するが、この状況では性能が良くないことが明らかとなった。
論文 参考訳(メタデータ) (2025-03-10T04:05:38Z) - Benchmarking Open-ended Audio Dialogue Understanding for Large Audio-Language Models [58.43486430996411]
LALM(Large Audio-Language Models)は、LALMと人間間の音声言語を直接交換する音声対話機能を持つ。
GPT-4oのような最近の進歩により、LALMは人との前後の音声対話を可能にしている。
オープンエンド音声対話理解におけるLALMの性能を評価するための音声対話理解ベンチマーク(ADU-Bench)を提案する。
論文 参考訳(メタデータ) (2024-12-06T16:34:15Z) - Brotherhood at WMT 2024: Leveraging LLM-Generated Contextual Conversations for Cross-Lingual Image Captioning [0.0]
本稿では,英語から英語への多モーダル翻訳タスクにおけるブラザーフッド(Brotherhood)というチーム名でシステムについて述べる。
我々は,イングリッシュ・ヒンディー語,イングリッシュ・ハウサ語,イングリッシュ・ベンガル語,イングリッシュ・マラヤラム語対の多モーダル翻訳作業に参加している。
本稿では,多モーダル大言語モデル(LLM),特に GPT-4o と Claude 3.5 Sonnet を利用して,言語間画像キャプションを強化する手法を提案する。
論文 参考訳(メタデータ) (2024-09-23T14:29:46Z) - A Robot Walks into a Bar: Can Language Models Serve as Creativity Support Tools for Comedy? An Evaluation of LLMs' Humour Alignment with Comedians [3.920479817512432]
オーディエンスの前でライブショーを行う20人のプロコメディアンに,人工知能を芸術的プロセスで使用するインタビューを行った。
「我が研究は、片手、有害な言論、他方、抵抗、風刺、パンチアップの実践としての「攻撃」の言葉の微妙な相違に関する学問を拡げている。」
論文 参考訳(メタデータ) (2024-05-31T15:55:51Z) - BotChat: Evaluating LLMs' Capabilities of Having Multi-Turn Dialogues [72.65163468440434]
本報告では,人間型マルチターンチャットのための既存大規模言語モデルの予備的評価を行う。
そこで我々は,ChatSEEDに基づくマルチターン対話を発話によって生成する大規模言語モデル(LLM)を提案する。
GPT-4は優れた品質の人型多元対話を生成できるが、その性能は著しく上回っている。
論文 参考訳(メタデータ) (2023-10-20T16:53:51Z) - Speaker attribution in German parliamentary debates with QLoRA-adapted
large language models [0.0]
我々は,2017-2021年のドイツ議会討論会において,大型言語モデルLlama 2の話者属性の自動化の可能性について検討した。
本稿の結果は,話者帰属の自動化における大規模言語モデルの能力に光を当て,政治談話の計算分析や意味的役割ラベルシステムの開発に期待できる道のりを明らかにした。
論文 参考訳(メタデータ) (2023-09-18T16:06:16Z) - ML-SUPERB: Multilingual Speech Universal PERformance Benchmark [94.64616634862995]
音声処理Universal PERformance Benchmark (SUPERB) は、音声処理タスクにおける自己監督学習(SSL)モデルの性能をベンチマークするためのリーダーボードである。
本稿では,言語認識と言語識別の両方を考慮した多言語SUPERBを提案する。
SUPERBベンチマークと同様、音声SSLモデルはFBANKよりも性能が大幅に向上する。
論文 参考訳(メタデータ) (2023-05-18T00:01:27Z) - Large Language Models Meet Harry Potter: A Bilingual Dataset for
Aligning Dialogue Agents with Characters [70.84938803753062]
本稿では,対話エージェントと文字アライメントの研究を進めるために設計されたHarry Potter Dialogueデータセットを紹介する。
このデータセットはハリー・ポッターシリーズのすべての対話セッション(英語と中国語の両方)を含んでいる。
対話シーン、話者、人物関係、属性など、重要な背景情報とともに注釈付けされている。
論文 参考訳(メタデータ) (2022-11-13T10:16:39Z) - A Mixture-of-Expert Approach to RL-based Dialogue Management [56.08449336469477]
我々は、強化学習を用いて、近視性(一般的な発話の出力)を回避し、全体的なユーザ満足度を最大化する対話エージェントを開発する。
既存のRLアプローチのほとんどは、単語レベルでエージェントを訓練するので、中規模の語彙であっても、非常に複雑なアクション空間を扱う必要がある。
i)会話履歴の多様な意味を学習できるLMと、(ii)対応する発話を生成できる専門的なLM(または専門家)からなる、新しい専門家言語モデル(MoE-LM)を用いたRLベースのDMを開発する。
論文 参考訳(メタデータ) (2022-05-31T19:00:41Z) - White-Box Attacks on Hate-speech BERT Classifiers in German with
Explicit and Implicit Character Level Defense [0.0]
ドイツのヘイトスピーチデータセットを用いて学習したBERTモデルの対角的ロバスト性を評価する。
評価を2つの新しいホワイトボックスキャラクタとワードレベルアタックで補完する。
論文 参考訳(メタデータ) (2022-02-11T17:20:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。