728x90
반응형
[쉽고 간결한 논문 리뷰] Spacetime Gaussian Feature Splatting for Real-Time Dynamic View Synthesis (CVPR 2024)
·
3DGS
본 논문은 OPPO US Research Center, Portland State University에서 2024년에 작성한 논문이다.논문 링크: https://arxiv.org/abs/2312.16812 1. IntroductionSpacetime Gaussian은 Dynamic View Synthesis 작업을 수행하기 위해 제안된 방법론입니다.Novel View Synthesis는 여러 시점에서 촬영된 이미지를 바탕으로 새로운 시점에서의 장면을 생성하는 기술이죠. Dynamic View Synthesis란?  임의의 카메라 시점뿐만 아니라 시간 개념을 추가하여 장면을 생성하는 기술을 뜻합니다.쉽게 말해, 기존 3D 가우시안에 시간 성분을 추가하여 시간의 흐름에 따라 장면이 바뀌게 하는 방법이다-라고..
[쉽고 간결한 논문 리뷰] Feature 3DGS: Supercharging 3D Gaussian Splatting to Enable Distilled Feature Fields (CVPR 2024)
·
3DGS
본 논문은 University of California, University of Texas, DEVCOM Army Research Laboratory에서 작성한 논문입니다.논문 링크: https://arxiv.org/pdf/2312.03203 1. IntroductionFeature 3DGS는 novel view synthesis 작업을 수행하기 위해 제안된 방법론입니다.Novel view synthesis는 여러 시점에서 촬영된 이미지를 바탕으로 새로운 시점에서의 장면을 생성하는 기술이죠. 이름에 있는 3DGS(3D Gaussian Splatting)는 이 작업을 수행하기 위해 2023년에 제안된 새로운 방법론입니다.Feature 3DGS는 바로 기존의 방법론에 'Feature'라는 개념을 추가해서 ..
[쉽고 간결한 논문 리뷰] 3D Gaussian Splatting for Real-Time Radiance Field Rendering (SIGGRAPH 2023)
·
3DGS
본 논문은 University of Nice Sophia Antipolis와 Max Planck Institute for Informatics에서 2023년에 작성한 논문이다.논문 링크: https://arxiv.org/abs/2308.04079 1. IntroductionNovel view synthesis란?여러 시점에서 촬영된 이미지를 바탕으로 새로운 시점에서의 장면을 생성하는 기술을 뜻합니다. 기존에는 NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis(2020) 논문에 소개된 NeRF라는 기술을 기반으로 synthesis를 수행하곤 했습니다.성능은 좋지만 많은 연산량을 필요로 하기 때문에 실시간 렌더링에서의 활용은 조금 ..
728x90
반응형