코랩에서 택시수요예측 스태킹을 어젯밤부터 아침까지 실행하다가
사용 용량 초과로 인해 초기화가 돼... 됐습니다..
그래서 주피터 노트북으로 실행했지만 6시간 이상이 걸리더라고요
제 노트북이 몇 년 된지라 계속하면 망가질까 걱정되다가 결국 중단했습니다 ㅠㅠ
게다가 딥러닝도 막혔습니다 LSTM 하기 위해서 데이터 셋을 만들던 중에
크기가 2 테라가 넘어서 뺀찌를 먹더군요 처음 알았습니다 딥러닝 이외에 다른 제한이 있다는 걸요
2015년도 5월 데이터만 가져왔는데 이렇게 크기가 커진 거라면 아마 원핫인코딩을 많이 늘려서 그런 것 같습니다
피처가 450개인데 여기서 몇 개를 삭제해야 할 것 같아요
게다가.. 지역별 개수가 다 다른 것 같더라고요
예를 들어 강남역 오후 8시 택시 정보는 있는데 신도림역 오후 8시 택시 정보가 없는 것처럼요
제가 처음에는 zip_code별 그룹바이 하니까 383개 zip_code가 나왔었습니다
아~ 그럼 여기에 30분 단위로 쪼개니까 일괄적으로 계산하면 맞아떨어지겠구나 생각했었더랬죠
But
역시 호락호락하지 않았습니다.. 스태킹도 안되고 딥러닝도 막히니까 두통이 느껴지는 것 같기도 하고 ㅎㅎ
오늘은 좀 일찍 마무리하고 쉬다가 낼 일어나서 다시 해봐야 할 것 같아요
'Data Diary' 카테고리의 다른 글
2021-02-01 공부기록(택시수요예측) (0) | 2021.02.01 |
---|---|
2021-01-30 공부기록(택시수요예측) (0) | 2021.01.30 |
2021-01-28 공부기록(택시수요예측) (0) | 2021.01.28 |
2021-01-27 공부기록(택시수요예측) (0) | 2021.01.27 |
2015-01-26 공부기록(택시수요예측) (0) | 2021.01.26 |