iconLogo
Published:2025/11/8 0:10:26

FedVLM爆誕!分散学習でVLMを可愛くカスタマイズ😍✨ (超要約:分散VLM学習でプライバシー&高性能GET!)

ギャル的キラキラポイント✨ ● データ共有ナシ!プライバシー守りつつ、VLM(画像とテキストを理解するモデル)を賢くするの!💖 ● スマホとかのエッジデバイス(小さい端末)でも、VLMの学習ができちゃうから、どこでもAIが使えるってコト!📱 ● 個性的モデルが作れる!まるでプリクラみたいに、自分だけのVLMにカスタマイズできるんだよ~😍

詳細解説 背景 VLMって、画像と文章を両方理解できるスゴイやつ!でも、学習には大量のデータと計算力が必要なの。それに、データを集めるのはプライバシー的にちょいと心配…😱 そこで!「フェデレーテッド学習 (FL)」っていう、データを共有しなくても学習できる方法を使うことにしたの!

方法 FedVLM っていうフレームワークを使って、VLMを分散学習させたんだって! さらに、pLoRA っていう新しい方法も導入!LoRAを使って、計算量を減らしつつ、個別のデータに合わせた学習(パーソナライズ化)を実現したんだって!✨

結果 FedVLMのおかげで、プライバシーを守りながら、スマホとかでもVLMを学習できるようになったの! しかも、pLoRAのおかげで、モデルがそれぞれのデータにめっちゃ合うようになって、精度もアップしたって!やったね!🥳

続きは「らくらく論文」アプリで

FedVLM: Scalable Personalized Vision-Language Models through Federated Learning

Arkajyoti Mitra (University of Texas at Arlington) / Afia Anjum (University of Texas at Arlington) / Paul Agbaje (University of Texas at Arlington) / Mert Pes\'e (Clemson University) / Habeeb Olufowobi (University of Texas at Arlington)

Vision-language models (VLMs) demonstrate impressive zero-shot and few-shot learning capabilities, making them essential for several downstream tasks. However, fine-tuning these models at scale remains challenging, particularly in federated environments where data is decentralized and non-iid across clients. Existing parameter-efficient tuning methods like LoRA (Low-Rank Adaptation) reduce computational overhead but struggle with heterogeneous client data, leading to suboptimal generalization. To address these challenges, we propose FedVLM, a federated LoRA fine-tuning framework that enables decentralized adaptation of VLMs while preserving model privacy and reducing reliance on centralized training. To further tackle data heterogeneity, we introduce personalized LoRA (pLoRA), which dynamically adapts LoRA parameters to each client's unique data distribution, significantly improving local adaptation while maintaining global model aggregation. Experiments on the RLAIF-V dataset show that pLoRA improves client-specific performance by 24.5% over standard LoRA, demonstrating superior adaptation in non-iid settings. FedVLM provides a scalable and efficient solution for fine-tuning VLMs in federated settings, advancing personalized adaptation in distributed learning scenarios.

cs / cs.CV