전체 글
-
Edge ai 란?이것저것 2024. 12. 28. 22:26
https://blog.palantir.com/edge-ai-in-space-93d793433a1e?gi=f7f60cc2bec5 Palantir Edge AI in SpaceDesigning software for in-orbit data processingblog.palantir.com 팔란티어와 세틀로직이 함께하는 edge ai 기술.... 2022년 4월 1일, Palantir와 Satellogic은 SpaceX Transporter 4 임무의 일환으로 최초의 Edge AI 지원 위성을 우주로 발사했습니다. Satellogic의 NewSat에 Palantir의 Edge AI 기술을 통합하면 궤도에서 이미지 데이터 처리를 시작하고 대규모 데이터의 신호와 노이즈를 분리하여 제한된 대역폭을 최대한 활용하..
-
v3 논문 번역 : Advancing End-to-End 3D Detection and Tracking(feat. chat gpt)카테고리 없음 2024. 10. 6. 23:07
영상에 대해서 아무것도 모르는 내가 돌려도 잘 되어서 모델을 보는데 하나도 모르겠다. 그래서 논문을 봤지만 하나도 모르겠다. 우선 번역이라도 해서 한글로 읽어 봤다. 그래도 모르겠다. 모르지만 그냥 적어 봤다..... 서당개 10년이면 풍월을 읊으니까...... 논문을 읽기 전에 아래 글을 읽으면 도움이 될것임. 참고로 모델은 img_backbon = "ResNet"img_neck = "FPN"depth_branch = "DenseDepthNet"head = " attention기반....모델" 질문1. 이미지의 크기와 DenseDepthNet의 크기가 다른데 어떻게 처리하나? 대답: https://github.com/HorizonRobotics/Sparse4D/tree/main?tab=read..
-
10/1 - 최하위 폴더 검색하기.....개발일지 2024. 10. 1. 23:00
최하위 폴더에 파일들이 있을때 최하위 폴더를 찾는 방법은 파이썬에서 작성할때는 아래 코드를 사용하면 최하위 폴더를 바로 찾을 수 있다.for root, dirs, files in os.walk(source_folder): # dirs가 비어있는 경우 최하위 폴더임을 의미 if not dirs: 그래서 특정 파일만 옮기고 싶을때 혹은 특정 조건에 부합하는 파일만 옮기고 싶을때 아래 코드를 사용하면 된다.import osimport shutildef move_files_from_source_to_destination(source_folder, destination_folder): # os.walk를 사용해 source_folder의 모든 폴더와 파일을 순회 for root, dirs, ..
-
9/28 - 수정된 로직 결과값 분석개발일지 2024. 9. 28. 06:28
그냥 해봤다. 연산량은 많지 않은것 같은데 멀티프로세싱이 잘 안되는지 시간이 기존 방식보다 많이 걸린다. Front와 Back만 적용했다. 약간 더 좋은 수치를 보여준다. 내가 수정한 코드 결과mAP: 0.4622mATE: 0.5431mASE: 0.4506mAOE: 0.5717mAVE: 0.3964mAAE: 0.2871NDS: 0.5062Eval time: 5.2sPer-class results:Object Class AP ATE ASE AOE AVE AAEcar 0.730 0.317 0.149 0.068 0.095 0.083truck 0.656 0.175 0.130 0.037 0.033 0.000bus 0...
-
9/22 - Sparse4D, fasterrcnn resnet50 fpn 로직 수정(feat 차량 정보)개발일지 2024. 9. 22. 02:36
목표 시간10000총 시간 공부 시간 시작 시간xx : xx종료 시간xx : xx목표 : 내가 처음 아래 로직을 분석했을때 이렇게 오래 걸릴지는 몰랐다.https://github.com/HorizonRobotics/Sparse4D/tree/main GitHub - HorizonRobotics/Sparse4DContribute to HorizonRobotics/Sparse4D development by creating an account on GitHub.github.com 그냥 분석만 하고 끝내려고 했지만 생각보다 잘되었고.... 내가 수정을 했을때 어떻게 될까? 궁금했다. 카메라만으로 영상을 전공하지 않은 내가 이렇게까지 결과를 뽑아 낼 수 있다는것이 데이터의 힘에 다시한번 경의로움을 느낀다. 이때까지..
-
9/17 - mini 데이터를 이용한 시나리오 결과 정리개발일지 2024. 9. 17. 17:53
목표 시간10000총 시간 공부 시간1:00시작 시간xx : xx종료 시간xx : xx목표 : mini 데이터를 이용한 시나리오 결과 정리기존에 작성된 코드를 기반으로 mini에 있는 시나리오를 실행해봤다. 차량 정보를 통해서 계산 global 좌표값이 생각보다 잘 맞는것을 알 수 있었다.그러나 host카의 yaw 값은 lidar에서 계산된 값과 꽤 차이가 보이는것을 알 수 있었다.lidar에서 계산된 값이 정답이라고 가정하면 2도 이상 차이가는것을 확인 할 수 있다. O 는 lidar 정보 즉 Ground Truth , GT이고X 는 차량에서 얻은 정보를 이용한 계산된 값이다. 비디오는 희색은 lidar 정보 GT이고빨간색 박스가 카메라에서 계산된 값이다.시나리오 0 번 시나리오 1번 정면에 보이는 ..
-
9/14 - NuScenes GT 정보 그리기개발일지 2024. 9. 14. 00:47
목표 시간10000총 시간 공부 시간 시작 시간xx : xx종료 시간xx : xx목표 : Nuscene에서 GT정보를 그려보자 아래 코드를 사용하면 GT를 표현할 수 있지만 수정할 수가 없다 그래서 내가 그리는 화면에 추가해서 만들었다.while current_sample_token: sample = nusc.get('sample', current_sample_token) my_annotation_token = sample['anns'][18] nusc.render_annotation(my_annotation_token) # my_annotation_metadata = nusc.get('sample_annotation', my_annotation_token) ..
-
9/8 - 차량 정보 정리개발일지 2024. 9. 9. 01:35
목표 시간10000총 시간 공부 시간 시작 시간xx : xx종료 시간xx : xx목표 :오랜만에 작성해본다.....왜 이렇게까지 공부하면서 해야하는지 모르겠지만.....Keep Going......# 0 CAM_FRONT# 1 CAM_FRONT_RIGHT# 2 CAM_FRONT_LEFT# 3 CAM_BACK# 4 CAM_BACK_LEFT# 5 CAM_BACK_RIGHTcam의 translation과 rotation은 고정이다.당연히 카메라가 고정되어 있으니 고정된 값을 가진다.cam_rotationcam_translation아래 값으로 작성하면 된다.cam_rotation['CAM_FRONT'] = [-90, 0 , -90]cam_rotation['CAM_FRONT_RIGHT'] = [-90, 0 , -..