개발일지
-
8/5 - [23/10K] - CRN, Sparse4D 성능비교개발일지 2024. 8. 5. 00:42
https://github.com/HorizonRobotics/Sparse4D/blob/main/projects/configs/sparse4dv3_temporal_r50_1x8_bs6_256x704.py Sparse4D/projects/configs/sparse4dv3_temporal_r50_1x8_bs6_256x704.py at main · HorizonRobotics/Sparse4DContribute to HorizonRobotics/Sparse4D development by creating an account on GitHub.github.com 해당 모델과 https://github.com/youngskkim/CRN/blob/main/exps/det/CRN_r50_256x704_128x128_4..
-
7/27 - [20/10K] - CRN, SparseDrive개발일지 2024. 7. 27. 17:21
https://github.com/youngskkim/CRN?tab=readme-ov-file GitHub - youngskkim/CRN: [ICCV'23] Official implementation of CRN: Camera Radar Net for Accurate, Robust, Efficient 3D Perceptio[ICCV'23] Official implementation of CRN: Camera Radar Net for Accurate, Robust, Efficient 3D Perception - youngskkim/CRNgithub.com https://github.com/swc-17/SparseDrive/blob/v1.0/docs/quick_start.md SparseDrive/docs/..
-
7/24 - [18/10K] - Sparse4D개발일지 2024. 7. 25. 01:25
한번 실행을 해보니 구조도 약간 파악이 되고 이해가 잘되니 이것 저것 돌려 볼 수 있을것 같다.https://github.com/HorizonRobotics/Sparse4D/tree/main?tab=readme-ov-file[GitHub - HorizonRobotics/Sparse4DContribute to HorizonRobotics/Sparse4D development by creating an account on GitHub.github.com](https://github.com/HorizonRobotics/Sparse4D/tree/main?tab=readme-ov-file)import sysimport os# Get the current working directorycurrent_dir = os..
-
7/21 - [17/10K] - preds = model(sweep_imgs, mats, ...)개발일지 2024. 7. 22. 00:46
쉽지 않다.......아래 처럼 실행 후 preds를 구해도 128x128의 값이기 때문에 다시 박스를 계산해야한다.model = model.to(device) preds = model(sweep_imgs, mats, pts_pv=pts_pv, is_train=False) 너무 복잡하다 이게 하나의 로직이다.단순 그냥 박스 그리는것이 아니였다. 쩝...... def eval_step(self, batch, batch_idx, prefix: str): (sweep_imgs, mats, img_metas, _, _, _, _, pts_pv) = batch if torch.cuda.is_available(): ..
-
7/17 - [15/10K] - __getitem__, collate_fn 역할개발일지 2024. 7. 17. 18:40
class BEVDepthLightningModel(LightningModule):def eval_step(self, batch, batch_idx, prefix: str): (sweep_imgs, mats, img_metas, _, _, _, _, pts_pv) = batch if torch.cuda.is_available(): if self.return_image: sweep_imgs = sweep_imgs.cuda() for key, value in mats.items(): mats[key] = value.cuda() if self.return_radar_pv: pts_pv = pts..
-
[7/16, 13/10K] - 가중치 초기화 설명(Kaiming, Xavier)개발일지 2024. 7. 16. 11:45
mmengine에서 여러가지 초기화 함수 제공함.Kaiming 초기화와 Xavier 초기화는 신경망의 가중치를 초기화하는 방법입니다. 두 가지 초기화 방법은 주로 심층 신경망에서 학습 안정성을 높이고 성능을 향상시키기 위해 사용됩니다. 이 두 가지 초기화 방법의 차이점과 그 목적에 대해 설명하겠습니다.1. Kaiming 초기화 (He 초기화)개발자: Kaiming He et al.설명:Kaiming 초기화는 주로 ReLU (Rectified Linear Unit) 활성화 함수를 사용하는 신경망에 사용됩니다.가중치 초기화 시, 입력 뉴런의 수(n)에 따라 가중치를 무작위로 설정합니다.분포: N(0, 2/n), 여기서 n은 이전 층의 뉴런 수입니다.공식:pythonCopy codeW ~ N(0, sqrt(2..
-
7/10 - [11/10K] - nuscene 이미지 저장개발일지 2024. 7. 10. 23:03
초반에 이미지 저장하는 것은 조금 무식하게 했음. 그래서 nuscene의 구조를 알고 다시 했음. token 구조를 이용했기때문에 기존에 이미지가 맞지 않는 문제는없음. simple --> data in simple --> cam in simple,카메라 토큰 추출 --> simple_data --> 파일명 획득 후 정보 추출 이런 식임.import osimport cv2import numpy as npimport matplotlib.pyplot as pltimport torchfrom torchvision.models.detection import fasterrcnn_resnet50_fpnfrom torchvision import transformsfrom PIL import Imagefrom nusc..
-
7/9 - (9/10K)개발일지 2024. 7. 10. 22:21
오늘은 Nuscene데이터 구조에 대해서 설명하려고한다. mkdir -p /data/sets/nusceneswget https://www.nuscenes.org/data/v1.0-mini.tgztar -xf v1.0-mini.tgz -C /data/sets/nuscenes 이렇게 다운로드 아래처럼 치면 해당 폴더에있는 데이터를 다 읽을 수 있다.nusc = NuScenes(version='v1.0-mini', dataroot='/data/sets/nuscenes', verbose=True) nusc.scene 을 치면 10개의 시나리오가 있음을 알 수 있음.각 시나리오마다 7개의 속성이 있음.굉장히 중요함.scene { "token": -- Unique record ..