분류 전체보기
-
8/22 - Sparse4D 라이다 정보를 제거하고 입력데이터 수정개발일지 2024. 8. 22. 23:11
목표 시간10000총 시간 공부 시간 시작 시간xx : xx종료 시간xx : xx목표 : https://github.com/HorizonRobotics/Sparse4D/tree/main GitHub - HorizonRobotics/Sparse4DContribute to HorizonRobotics/Sparse4D development by creating an account on GitHub.github.com https://github.com/freddiekimN/Sparse4D/tree/feature/visualize_with_mini GitHub - freddiekimN/Sparse4DContribute to freddiekimN/Sparse4D development by creating an ac..
-
8/21 - 입력 데이터 분석 ego position, lidar position 값 분석카테고리 없음 2024. 8. 22. 00:10
목표 시간10000총 시간 공부 시간 시작 시간xx : xx종료 시간xx : xx목표 : 입력 데이터 분석 ego pose를 계산해봤다. ego position --> global position으로 변경해주는 행렬을 의미한다. 여기서 핵심은 yaw값 아닐까? lidar to ego 로 변환할때 쓰는 좌표 변환 여기서 핵심은 yaw -90 아닐까? x, y,z 값이 변경이 없는것은 이해가 감. 결국 중요한것는lidar transition은 고정 값이고아래처럼 yaw 값만 살리고 다 0,0으로 만들었다. 그래도 로직에 큰 영향을 미치지 않는다.즉 내가 카메라 데이터만 사용할 경우ego transition x,y 값과ego rotation yaw 값만 잘 넣어주면 로직을 돌릴 수 있다는 말이다.lidar..
-
8/17 - 입력값 분석 및 쿠다 재설치개발일지 2024. 8. 17. 01:20
목표 시간10000총 시간 공부 시간 시작 시간00 : 43종료 시간xx : xx목표 : cuda installation again 정리했더니 쿠다 삭제됨...다시 설치함. https://developer.nvidia.com/cuda-toolkit-archive CUDA Toolkit ArchivePrevious releases of the CUDA Toolkit, GPU Computing SDK, documentation and developer drivers can be found using the links below. Please select the release you want from the list below, and be sure to check www.nvidia.com/drivers ..
-
8/15 - 정리.......개발일지 2024. 8. 16. 20:59
목표 시간10000총 시간 공부 시간20 : 00시작 시간18 : 43종료 시간xx : xx목표 : 정리.... 처음 만시간의 법칙을 보고 나도 딥러닝을 공부해볼까!생각을 했다. 로직을 이해하기 보다 우선 실행에 초점을 맞췄다.변화하나는 세상에서 남이 짠 코드를 실행도 못하면서 어떻게 이해를 한다는 말인가 그리고 보통 딥러닝은 플렛폼을로 개발이 되고 있어서 하나 실행하는 것을 익히면 다른 프로젝트 실행하는데 유익하긴하다. 1. 이미지에서 classification 로직 실행해보기.정리하는 만큼 처음 환경 셋팅 부터 해보자 1.1 환경 셋팅우선 본인의 그래픽 카드에 따라 약간 상태가 달라진다. 여기서 난 cuda 11.8을 사용한다고 생각하고 적는다. 11.8 cuda를 사용할 것이다. 그래서 아래와..
-
8/13 - 반복의 이해개발일지 2024. 8. 14. 23:06
처음 해당 프로젝트를 실행하고 mmdet3d의 구조를 이해하게 됨.https://github.com/youngskkim/CRN GitHub - youngskkim/CRN: [ICCV'23] Official implementation of CRN: Camera Radar Net for Accurate, Robust, Efficient 3D Perceptio[ICCV'23] Official implementation of CRN: Camera Radar Net for Accurate, Robust, Efficient 3D Perception - youngskkim/CRNgithub.com CRN을 실행하고 카메라 only 버전도 실행해보고 싶어서 실행했는데 실행됨.예전에 버전 문제로 고생을 많이해서 안되었는..
-
SPARSE4D 입력 값 분석 - T_global_inv,T_globalopenxlab 2024. 8. 11. 11:41
입력 값을 직접 가지고 있는 Parameter를 이용해서 만들어 보자!T_global 변수는 lidar to global 함수 이다. 즉 lidar 값이 입력이고 출력은 global이라는 뜻이다.input_dict["T_global_inv"] = np.linalg.inv(input_dict["lidar2global"])input_dict["T_global"] = input_dict["lidar2global"]data['img_metas'][0]['T_global']array([[-4.81423770e-01, 8.74948283e-01, 5.19293351e-02, 6.01008072e+02], [-8.76460242e-01, -4.80091652e-01, -3.646160..
-
8/11 -[26/10K] - lidar2img_rts 이해(feat, 좌표계 변환)개발일지 2024. 8. 11. 05:21
목표 시간10000 : 00총 시간26 : 20공부 시간1 : 20시작 시간05 : 08종료 시간06 : 27목표 : Projection Martix 이해 우선 sensor2lidar 값을 가지고 있다면 아래 처럼 계산해서 구할 수 있다. 참고로 intrinsic.shape[0], intrinsic.shape[1]는 3x3 행렬이므로 3 값을 갔는다. lidar2img_rts 해당 변수는 모델의 결과 값에 이미지를 그릴때 사용하는것 같다. 모델의 결과 값은 3D 이고 이미지는 2D 이니 해당 matrix가 필요하다. ## nuscenes_3d_det_track_dataset.py# obtain lidar to image transformation matrixlidar2cam_r = np.linalg...
-
8/7 - [25/10K] - bev_corners = box3d_to_corners(bboxes_3d) 분석개발일지 2024. 8. 8. 00:42
박스를 그리는 함수가 있는데 chat gpt에게 물어봐서 코드를 분석 했다. bev_corners = box3d_to_corners(bboxes_3d)[:, [0, 3, 4, 7]][ ..., [0, 1] ] xs = bev_corners[..., 0] / bev_resolution + bev_w / 2 ys = -bev_corners[..., 1] / bev_resolution + bev_h / 2 for obj_idx, (x, y) in enumerate(zip(xs, ys)): for p1, p2 in ((0, 1), (0, 2), (1, 3), (2, 3)): if is..