iconLogo
Published:2025/12/17 4:55:15

少ない画像で3Dを!COSMOS技術がスゴい✨

  1. 超要約: 少ない写真から3Dモデルを作る魔法🪄
  2. ギャル的キラキラポイント
    • ● 少ない写真でOK!撮影がラクちん💖
    • ● 3Dモデルがめっちゃキレイになる!😍
    • ● AR/VRとか色んなことに使える予感🎵
  3. 詳細解説
    • 背景: 今までの3Dモデル作りは、写真がいっぱい必要だったの! でも、COSMOSは少ない写真でもイケちゃうんだって😳
    • 方法: ガウシアン(ちっちゃい丸)をグループにして、賢く学習するんだって!✨グループ間の関係性も大事みたい😉
    • 結果: 少ない写真でも、めっちゃキレイな3Dモデルができるようになったんだって!すごい!🥳
    • 意義(ここがヤバい♡ポイント): 3Dモデル作りが簡単になって、色んな分野で活躍できるってこと!AR/VRとか、ロボットとか、ワクワクするね😍
  4. リアルでの使いみちアイデア💡
    • お店の商品を3Dで見れるようにして、ネットショッピングをもっと楽しくする🛍️
    • 旅行先の風景を3Dで再現して、バーチャル旅行を楽しむ✈️
  5. もっと深掘りしたい子へ🔍 キーワード
    • 3D Gaussian Splatting (3DGS)
    • AR/VRコンテンツ
    • ロボットナビゲーション

続きは「らくらく論文」アプリで

COSMOS: Coherent Supergaussian Modeling with Spatial Priors for Sparse-View 3D Splatting

Chaeyoung Jeong / Kwangsu Kim

3D Gaussian Splatting (3DGS) has recently emerged as a promising approach for 3D reconstruction, providing explicit, point-based representations and enabling high-quality real time rendering. However, when trained with sparse input views, 3DGS suffers from overfitting and structural degradation, leading to poor generalization on novel views. This limitation arises from its optimization relying solely on photometric loss without incorporating any 3D structure priors. To address this issue, we propose Coherent supergaussian Modeling with Spatial Priors (COSMOS). Inspired by the concept of superpoints from 3D segmentation, COSMOS introduces 3D structure priors by newly defining supergaussian groupings of Gaussians based on local geometric cues and appearance features. To this end, COSMOS applies inter group global self-attention across supergaussian groups and sparse local attention among individual Gaussians, enabling the integration of global and local spatial information. These structure-aware features are then used for predicting Gaussian attributes, facilitating more consistent 3D reconstructions. Furthermore, by leveraging supergaussian-based grouping, COSMOS enforces an intra-group positional regularization to maintain structural coherence and suppress floaters, thereby enhancing training stability under sparse-view conditions. Our experiments on Blender and DTU show that COSMOS surpasses state-of-the-art methods in sparse-view settings without any external depth supervision.

cs / eess.IV / cs.CV / cs.GR