논문 키워드 : 3D object detection , Lidar
주요 컨텐츠
- Lidar sensor : working principle
- Lidar-based 3D object detection : Benefits and limiatations
- 3D Bounding Box encoding
- Operational Pipeline of Lidar-based 3D object detectors
- Publicly Avaliable Datasets
- Evaluation of Lidar=based 3D object detectors
- Future Research Trends and Open Problems
1. Lidar data 특징
- Lidar sensor + point cloud 의 특징 : 먼저 LiDAR sensor는 time of flight(ToF)를 측정하는 장치이다. [ laser를 쏘고 물체에 튕겨서 돌아오는 시간을 측정하는 장치이다.] 이 장치를 통해 얻게 되는 데이터는 Point의 집합이다. [x, y, z] 로 표현되는 값인데 Lidar가 원점 좌표계일 때 그 기준으로 부터의 값들의 표현? 이라고 할 수 있다. 라이다가 측정한 것들에 대해서 점군 형태로 표현되는 것이다. ( 아래는 PointNet 논문에서 보았던 Point cloud data에 대한 특징)
1) Unordered : Point들은 정렬되있지 않는다.
2) interatcion among Points
3) Invariance under transformation
2. 3D bounding box encoding 표현
- location(x,y,z) / size(l,w,h) / yaw orientation( theta ) + class
3. Lidar data
3-1. Lidar Sensor Data representation
- 라이다 데이터 표현 방법은 다양하다 Point / Voxel / Pillar / Graph / bird eye view등의 Projection based 방법 다양하다
- Point는 x, y, z + color 이런식으로 표현하는 방법이고, point 자체로!
- Voxel은 공간을 직각좌표계기준이나 구형좌표계기준으로 Voxel로 나누어 표현하는 방법이다. (그래서 voxel이 cuboid 하거나 cylindrical slicing 됨) - fixed / dynamic / hybrid scale voxelization이 존재함
- Pillar 방법은 기둥으로 분활하는 방법인데 voxelization과 비슷하데 VFE 같은 방법이다 PointNet에서 영감을 받았다고 하는데 PointPillars를 읽어봐야 이해가 될 것 같다
3-2. Feature estraction
- 3DBN CNN
- 3DBN PointNet++
- 2DBN CNN
참고
'논문, 강의' 카테고리의 다른 글
[논문리뷰] NeRF: Representing Scenes asNeural Radiance Fields for View Synthesis (0) | 2023.03.31 |
---|---|
[강의] 3D Object classification and detection (0) | 2023.03.14 |