iconLogo
Published:2026/1/5 13:28:28

360°画像から最強3Dモデル爆誕🎉

超要約:360°写真から、めっちゃキレイで形もバッチリな3Dモデル作っちゃうぜ!

🌟 ギャル的キラキラポイント✨ ● 360°画像(ぐるっと1周の写真)から3Dモデルを作るよ! ● 高速で動くから、リアルタイムで使えるかも! ● 形が歪(ゆが)まないように工夫してるのがスゴくない?

詳細解説 ● 背景 3Dモデルって、ゲームとかVR(バーチャルリアリティ)で超重要じゃん? でも、作るの難しいし、時間もかかる…😭 今回の研究は、360°写真から、手軽に高品質な3Dモデルを作れるように頑張ったんだって!

● 方法 3DGS(スリーディー・ガウシアン・スプラッティング)っていう、ガウス分布(丸っこい塊)をたくさん並べて表現する方法を使うよ! 360°写真から、そのガウス分布のパラメータ(位置とか色とか)を計算して、D-Normal正則化っていう技術で、形の整合性を高めてるんだって! 難しい言葉だけど、とにかく形がキレイになるってこと!

続きは「らくらく論文」アプリで

360-GeoGS: Geometrically Consistent Feed-Forward 3D Gaussian Splatting Reconstruction for 360 Images

Jiaqi Yao / Zhongmiao Yan / Jingyi Xu / Songpengcheng Xia / Yan Xiang / Ling Pei

3D scene reconstruction is fundamental for spatial intelligence applications such as AR, robotics, and digital twins. Traditional multi-view stereo struggles with sparse viewpoints or low-texture regions, while neural rendering approaches, though capable of producing high-quality results, require per-scene optimization and lack real-time efficiency. Explicit 3D Gaussian Splatting (3DGS) enables efficient rendering, but most feed-forward variants focus on visual quality rather than geometric consistency, limiting accurate surface reconstruction and overall reliability in spatial perception tasks. This paper presents a novel feed-forward 3DGS framework for 360 images, capable of generating geometrically consistent Gaussian primitives while maintaining high rendering quality. A Depth-Normal geometric regularization is introduced to couple rendered depth gradients with normal information, supervising Gaussian rotation, scale, and position to improve point cloud and surface accuracy. Experimental results show that the proposed method maintains high rendering quality while significantly improving geometric consistency, providing an effective solution for 3D reconstruction in spatial perception tasks.

cs / cs.CV