iconLogo
Published:2025/12/17 9:24:05

インド言語翻訳、ギャルが斬る!✨ 低リソースでも爆速翻訳術!

  1. 超要約: インド言語翻訳、低リソースでもLLMで精度爆上げ⤴️ビジネスにも使えるよ!

  2. ギャル的キラキラポイント

    • ● インドのマイナー言語(アッサム語とか)も、LLMで翻訳精度アップを目指すって、めっちゃイケてる💖
    • ● LoRA(ロラ)とかTransformer(トランスフォーマー)とか、専門用語を駆使して翻訳の質を上げる努力、尊い🙏
    • ● Webサイトやアプリの多言語化、ビジネスチャンス拡大とか、未来が明るすぎる🌟
  3. 詳細解説

    • 背景: インドはITビジネスがアツい🔥 けど、言語が多すぎて翻訳が大変だったの! 特にデータ少ない言語は翻訳が難しい問題があったみたい😢
    • 方法: mT5とかIndicBartとかの既存モデルを改良したり、LLM(Llama3とかMixtral)を使ったり、LoRAでモデルを調整したり… いろんな方法を試したんだって!✨
    • 結果: LoRAでLlama3を調整したモデルが、翻訳の精度を結構上げられたみたい!👏
    • 意義(ここがヤバい♡ポイント): インド市場でのビジネスチャンスが広がるし、情報格差も解消できるかも!🌍
  4. リアルでの使いみちアイデア💡

    • ECサイトで、インドのいろんな言語で商品紹介できたら、売上アップ間違いなし!🛍️
    • 観光アプリを多言語対応にして、外国人観光客を呼びまくっちゃお!🙌

続きは「らくらく論文」アプリで

Yes-MT's Submission to the Low-Resource Indic Language Translation Shared Task in WMT 2024

Yash Bhaskar / Parameswari Krishnamurthy

This paper presents the systems submitted by the Yes-MT team for the Low-Resource Indic Language Translation Shared Task at WMT 2024 (Pakray et al., 2024), focusing on translating between English and the Assamese, Mizo, Khasi, and Manipuri languages. The experiments explored various approaches, including fine-tuning pre-trained models like mT5 (Xue et al., 2020) and IndicBart (Dabre et al., 2021) in both multilingual and monolingual settings, LoRA (Hu et al., 2021) fine-tuning IndicTrans2 (Gala et al., 2023), zero-shot and few-shot prompting (Brown, 2020) with large language models (LLMs) like Llama 3 (Dubey et al., 2024) and Mixtral 8x7b (Jiang et al., 2024), LoRA supervised fine-tuning of Llama 3 (Mecklenburg et al., 2024), and training Transformer models (Vaswani, 2017) from scratch. The results were evaluated on the WMT23 Low-Resource Indic Language Translation Shared Task test data using SacreBLEU (Post, 2018) and CHRF (Popovic, 2015), highlighting the challenges of low-resource translation and the potential of LLMs for these tasks, particularly with fine-tuning.

cs / cs.CL / cs.AI