개발일지
-
10/1 - 최하위 폴더 검색하기.....개발일지 2024. 10. 1. 23:00
최하위 폴더에 파일들이 있을때 최하위 폴더를 찾는 방법은 파이썬에서 작성할때는 아래 코드를 사용하면 최하위 폴더를 바로 찾을 수 있다.for root, dirs, files in os.walk(source_folder): # dirs가 비어있는 경우 최하위 폴더임을 의미 if not dirs: 그래서 특정 파일만 옮기고 싶을때 혹은 특정 조건에 부합하는 파일만 옮기고 싶을때 아래 코드를 사용하면 된다.import osimport shutildef move_files_from_source_to_destination(source_folder, destination_folder): # os.walk를 사용해 source_folder의 모든 폴더와 파일을 순회 for root, dirs, ..
-
9/28 - 수정된 로직 결과값 분석개발일지 2024. 9. 28. 06:28
그냥 해봤다. 연산량은 많지 않은것 같은데 멀티프로세싱이 잘 안되는지 시간이 기존 방식보다 많이 걸린다. Front와 Back만 적용했다. 약간 더 좋은 수치를 보여준다. 내가 수정한 코드 결과mAP: 0.4622mATE: 0.5431mASE: 0.4506mAOE: 0.5717mAVE: 0.3964mAAE: 0.2871NDS: 0.5062Eval time: 5.2sPer-class results:Object Class AP ATE ASE AOE AVE AAEcar 0.730 0.317 0.149 0.068 0.095 0.083truck 0.656 0.175 0.130 0.037 0.033 0.000bus 0...
-
9/22 - Sparse4D, fasterrcnn resnet50 fpn 로직 수정(feat 차량 정보)개발일지 2024. 9. 22. 02:36
목표 시간10000총 시간 공부 시간 시작 시간xx : xx종료 시간xx : xx목표 : 내가 처음 아래 로직을 분석했을때 이렇게 오래 걸릴지는 몰랐다.https://github.com/HorizonRobotics/Sparse4D/tree/main GitHub - HorizonRobotics/Sparse4DContribute to HorizonRobotics/Sparse4D development by creating an account on GitHub.github.com 그냥 분석만 하고 끝내려고 했지만 생각보다 잘되었고.... 내가 수정을 했을때 어떻게 될까? 궁금했다. 카메라만으로 영상을 전공하지 않은 내가 이렇게까지 결과를 뽑아 낼 수 있다는것이 데이터의 힘에 다시한번 경의로움을 느낀다. 이때까지..
-
9/17 - mini 데이터를 이용한 시나리오 결과 정리개발일지 2024. 9. 17. 17:53
목표 시간10000총 시간 공부 시간1:00시작 시간xx : xx종료 시간xx : xx목표 : mini 데이터를 이용한 시나리오 결과 정리기존에 작성된 코드를 기반으로 mini에 있는 시나리오를 실행해봤다. 차량 정보를 통해서 계산 global 좌표값이 생각보다 잘 맞는것을 알 수 있었다.그러나 host카의 yaw 값은 lidar에서 계산된 값과 꽤 차이가 보이는것을 알 수 있었다.lidar에서 계산된 값이 정답이라고 가정하면 2도 이상 차이가는것을 확인 할 수 있다. O 는 lidar 정보 즉 Ground Truth , GT이고X 는 차량에서 얻은 정보를 이용한 계산된 값이다. 비디오는 희색은 lidar 정보 GT이고빨간색 박스가 카메라에서 계산된 값이다.시나리오 0 번 시나리오 1번 정면에 보이는 ..
-
9/14 - NuScenes GT 정보 그리기개발일지 2024. 9. 14. 00:47
목표 시간10000총 시간 공부 시간 시작 시간xx : xx종료 시간xx : xx목표 : Nuscene에서 GT정보를 그려보자 아래 코드를 사용하면 GT를 표현할 수 있지만 수정할 수가 없다 그래서 내가 그리는 화면에 추가해서 만들었다.while current_sample_token: sample = nusc.get('sample', current_sample_token) my_annotation_token = sample['anns'][18] nusc.render_annotation(my_annotation_token) # my_annotation_metadata = nusc.get('sample_annotation', my_annotation_token) ..
-
9/8 - 차량 정보 정리개발일지 2024. 9. 9. 01:35
목표 시간10000총 시간 공부 시간 시작 시간xx : xx종료 시간xx : xx목표 :오랜만에 작성해본다.....왜 이렇게까지 공부하면서 해야하는지 모르겠지만.....Keep Going......# 0 CAM_FRONT# 1 CAM_FRONT_RIGHT# 2 CAM_FRONT_LEFT# 3 CAM_BACK# 4 CAM_BACK_LEFT# 5 CAM_BACK_RIGHTcam의 translation과 rotation은 고정이다.당연히 카메라가 고정되어 있으니 고정된 값을 가진다.cam_rotationcam_translation아래 값으로 작성하면 된다.cam_rotation['CAM_FRONT'] = [-90, 0 , -90]cam_rotation['CAM_FRONT_RIGHT'] = [-90, 0 , -..
-
9/1 - Calibration의 중요함.......개발일지 2024. 9. 3. 00:31
목표 시간10000총 시간 공부 시간 시작 시간xx : xx종료 시간xx : xx목표 : 끝없는........작업내가 예상했던 대로 특정 데이터에서는 이상하게 나옴... 즉 Cal이 중요한데..... 전방에 차량이 있다는 가정하에 해야하는 것같음. 만일 전방에 차량이 없으면????? 어떻게 해야하지??? 넘 힘든데.... 지금 드는 생각은 전방에 차량의 이미지 위치와 계산된 CAL의 위치를 iteration을 통해서 찾는것이 하나의 방법인것같다. 만일 다른 센서의 도움을 받을 수 있다면 더 좋을것 같기는하다. 그러나......결국 .........이런 로직은 필요할것 같다..... nuScene으로 하지 않으면 ......힘들 것이다..... Camera ego값이 사용되는데....difference..