iconLogo
Published:2026/1/8 11:53:04

3Dシーンを秒速セグメンテーション!DivASってスゴくない?✨(超要約:3Dの世界をサクサク分割!)

🌟 ギャル的キラキラポイント ● NeRFとSAMの最強タッグ!ネクストレベルの3D表現💖 ● 難しい計算はもうイヤ!爆速セグメンテーション🚀 ● AR/VR、自動運転…夢広がる未来がアツい🔥

詳細解説いくよ~!

背景 3Dモデルって、すっごくキレイに表現できるけど、編集とか大変だったりするじゃん?😥 でも、この研究は、その大変さをぶっ飛ばしてくれる方法を見つけたんだって!NeRF(3Dシーンを表現する技術)と、SAM(2D画像を賢く切り抜く技術)を組み合わせて、3Dモデルを簡単に分割できるようにしたんだって!✨

方法 DivAS(ディーバス)っていう、新しいやり方で、NeRFの情報を活かしつつ、SAMを使って、3Dシーンを賢くセグメンテーション(分割)するんだって!計算も速いし、色んなオブジェクトを認識できるらしい!💖

続きは「らくらく論文」アプリで

DivAS: Interactive 3D Segmentation of NeRFs via Depth-Weighted Voxel Aggregation

Ayush Pande

Existing methods for segmenting Neural Radiance Fields (NeRFs) are often optimization-based, requiring slow per-scene training that sacrifices the zero-shot capabilities of 2D foundation models. We introduce DivAS (Depth-interactive Voxel Aggregation Segmentation), an optimization-free, fully interactive framework that addresses these limitations. Our method operates via a fast GUI-based workflow where 2D SAM masks, generated from user point prompts, are refined using NeRF-derived depth priors to improve geometric accuracy and foreground-background separation. The core of our contribution is a custom CUDA kernel that aggregates these refined multi-view masks into a unified 3D voxel grid in under 200ms, enabling real-time visual feedback. This optimization-free design eliminates the need for per-scene training. Experiments on Mip-NeRF 360{\deg} and LLFF show that DivAS achieves segmentation quality comparable to optimization-based methods, while being 2-2.5x faster end-to-end, and up to an order of magnitude faster when excluding user prompting time.

cs / cs.CV