iconLogo
Published:2025/8/22 20:45:03

TaDiCodecって神!音声AIを爆速で進化させる魔法🪄

  1. 超要約: 音声AIの音質を保ったまま、データ量を劇的に減らす技術だよ!色んなサービスで活躍しそう✨

  2. ギャル的キラキラポイント✨

    • ● 音声データをめちゃくちゃ圧縮(あっしゅく)できるから、スマホ📱とかでもサクサク動くよ!
    • ● テキストの情報も一緒に使うから、より自然な音声🗣️が作れるんだって!
    • ● エンドツーエンド(最初から最後まで)で学習するから、難しいことしなくて済むの🎵
  3. 詳細解説

    • 背景: 今までの音声AIは、データ量が大きくて大変だったの😢 でも、このTaDiCodecを使えば、小さいデータで高品質な音声が作れるようになるよ!
    • 方法: 拡散型オートエンコーダっていうすごい技術を使って、音声を圧縮したり、テキストの情報と組み合わせたりするんだって!まるで魔法🧙‍♀️
    • 結果: めっちゃ低いフレームレート(6.25Hz!)でも、音質をキープできることが証明されたよ!ヤバくない?😳
    • 意義(ここがヤバい♡ポイント): 音声AIの性能が上がって、色んなサービスで使えるようになるってこと!例えば、翻訳アプリとか、音声アシスタントとか、未来が楽しみ💖
  4. リアルでの使いみちアイデア💡

    • スマホの容量を気にせず、高音質な音声アプリを使えるようになるかも!動画編集も楽々🎵
    • 多言語対応の音声アシスタントが、もっと賢くなって、色んな国の言葉を話せるようになるかもね!

続きは「らくらく論文」アプリで

TaDiCodec: Text-aware Diffusion Speech Tokenizer for Speech Language Modeling

Yuancheng Wang / Dekun Chen / Xueyao Zhang / Junan Zhang / Jiaqi Li / Zhizheng Wu

Speech tokenizers serve as foundational components for speech language models, yet current designs exhibit several limitations, including: 1) dependence on multi-layer residual vector quantization structures or high frame rates, 2) reliance on auxiliary pre-trained models for semantic distillation, and 3) requirements for complex two-stage training processes. In this work, we introduce the Text-aware Diffusion Transformer Speech Codec (TaDiCodec), a novel approach designed to overcome these challenges. TaDiCodec employs end-to-end optimization for quantization and reconstruction through a diffusion autoencoder, while integrating text guidance into the diffusion decoder to enhance reconstruction quality and achieve optimal compression. TaDiCodec achieves an extremely low frame rate of 6.25 Hz and a corresponding bitrate of 0.0875 kbps with a single-layer codebook for 24 kHz speech, while maintaining superior performance on critical speech generation evaluation metrics such as Word Error Rate (WER), speaker similarity (SIM), and speech quality (UTMOS). Notably, TaDiCodec employs a single-stage, end-to-end training paradigm, and obviating the need for auxiliary pre-trained models. We also validate the compatibility of TaDiCodec in language model based zero-shot text-to-speech with both autoregressive modeling and masked generative modeling, demonstrating its effectiveness and efficiency for speech language modeling, as well as a significantly small reconstruction-generation gap. We will open source our code and model checkpoints. Audio samples are are available at https:/tadicodec.github.io/. We release code and model checkpoints at https:/github.com/HeCheng0625/Diffusion-Speech-Tokenizer.

cs / cs.SD / cs.LG / eess.AS