Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
Tags
- loss function
- SSAC
- focal loss
- Satellite Image
- 시계열
- Dice Loss
- LightGBM
- sm-segmentation
- segmentation
- Satel
Archives
- Today
- Total
고양이는 털털해
SSACxAIFFEL 1주차 본문
소감
오늘로 SSACxAIFFEL 과정 수업이 시작한지 1주가 된다.
마지막 날이라 나만의 글쓰기 시간을 통해 한주간의 공부를 정리하는 시간이다.
1주간 수업을 들어보니 매일 매일 진행하는 과정의 양이 적지 않고 진행 속도도 빠른 편이라 별도로 수업 내용을 정리할 시간이 없다.
월요일에는
유투브에 올라와 있는 미시간대학교고cs231n 수업 2강을 듣고 리뷰하고,화요일에는
- 가위, 바위, 보 이미지 데이터를 만들어 keras api로 이를 학습시키고 분류시키는 것을 해보고,
수요일에는
- git, 마크다운을 배우고 파이썬 알고리즘 인터뷰 라는 책을 교재로 빅오의 개념과 파이썬 자료형에 대해 배웠다.
목요일에는
- scikit-learn 패키지의 다양한 머신러닝 알고리즘 모듈을 실행하고 이를 평가하는데 적합한 평가지표가 무엇일지에 대해 실습했다. 또 리트코드라는 사이트에서 세 종류의 코딩 문제로 반배치 평가가 있었다.
- 오늘 금요일에는
- 파이썬 코딩 기초 : 함수, 클래스, 반복문, 조건문, 자료형에 대해 공부하고 한 주간 배운 것을 정리하는 시간이 주어졌다.
이렇게 진행해 보니 하루 하루 수업 들으면서 정리해 두지 않으면 단편적인 내용만 머리에 남아 글쓰기 시간 마다 따로 정리하기 위해 머리를 쥐어짜야 하는 상황이 되어버릴 것 같다.
앞으로의 계획
- 매일 수업 진행하면서 간단하게나마 노트에 정리하고 블로그 등에 기록해 두면 좋겠다. 나중에 따로 하려니 시간이 배로 들어갈 것 같다.
- 확실하게 하려다 시간은 시간대로 들어가고 결과물은 없는 것 보다 허술하더라도 결과물이 있는게 낫지.
- 학습용으로 대여해준 컴퓨터가 i7-10750H + 16bg RAM + rtx 2070 8g 의 지금껏 써본적 없는 사양의 컴퓨터인데 이걸로 나중에 이런거 이해하면서 돌려볼 수 있으면 좋겠다.
- 2080ti 로 550x550 170 fps 동영상에서 실시간 segmentation 했다는데 2070이면 170까지는 못해도 60은 충분히 하지 않을까?
- 지금은 읽어봐도 논문도 코드도 눈에 하나도 안들어오더라. 읽기는 하지만 그대로 새어나가버린다. 학교에서 하는 논문 리뷰 스터디도 참가해볼까 한다.
1주일 공부하고 남은 것
화요일
- 통계학에서 표본에서 모집단을 추론할 때 표본과 모집단의 연결은 내적 타당성이 있어야 한다. 표본을 관찰한 것이 모집단의 특성을 그대로 반영해야 하고 편향이 없어야 하는데 keras로 쌓은 딥러닝 모델에도 똑같은 법칙이 적용되는 것 같다. 내가 수집한 데이터에 편향이 없어야 하고 일반적인 상황(모집단)을 반영하고 있어야 판별 정확도가 높은 모델을 만들 수 있다.
- 훈련 데이터와 평가 데이터의 배경이 다르거나 손이 뻗어나온 방향이 다르거나 하면 그런 이미지는 제대로 분류하지 못했다.
- 해상도가 낮은 이미지로 훈련을 해서 오므려진 손가락에 대한 음영 훈련이 잘 되지 않았던 것 같다. 실제로는 가위나 보인 경우에도 찍힌 방향에 따라 전반적인 형태가 바위이면 이를 잘못 분류하는 경우가 있었다.
- 이미지를 회전시키고 색을 단색으로 만들어 훈련하여 60% 정확도를 달성했다.
- 서윤선님이 올려주셨던 가위바위보 훈련, 테스트 데이터도 배경이 전부 하얀색으로 통일되어 있었다.
TRAIN_URL = "https://storage.googleapis.com/download.tensorflow.org/data/rps.zip"
TEST_URL = "https://storage.googleapis.com/download.tensorflow.org/data/rps-test-set.zip"
- 가위바위보 분류기 훈련하면서 데이터를 train과 test로만 나누어서 test dataset에 대한 모델의 정확도를 보고 데이터를 변화시켰는데 하이퍼 파라미터를 변경한 것은 아니지만 월요일에 리뷰한 cs231 2강에서 train validation test 세 종류로 나눠서 모델 튜닝은 validation set에 대한 평가지표를 보고 조정하고 test set은 건드리지 말라고 했던게 생각난다.
- 이걸로 뭘 발표를 할 것은 아니지만 test set을 보고 그에 맞춰 데이터를 바꾸거나 추가하였기 때문에 일반적으로 정확도가 60%가 나올 것 같지는 않다. 배경에 색다른 무늬가 들어있는 경우에는 정확도가 떨어지지 않을까.
- 통계학에서 표본에서 모집단을 추론할 때 표본과 모집단의 연결은 내적 타당성이 있어야 한다. 표본을 관찰한 것이 모집단의 특성을 그대로 반영해야 하고 편향이 없어야 하는데 keras로 쌓은 딥러닝 모델에도 똑같은 법칙이 적용되는 것 같다. 내가 수집한 데이터에 편향이 없어야 하고 일반적인 상황(모집단)을 반영하고 있어야 판별 정확도가 높은 모델을 만들 수 있다.
목요일
- 비율을 볼 때는 수치만 보지말고 그게 현실에서 무슨 의미인지 생각해야 한다고 하는데 모델을 평가하는 metric을 선정하는 것도 비슷한 맥락에서 생각해봐야 하는 것 같다.
- 맥락적으로 모델이 target을 맞추기만 하면 되는지 특정 항목을 더 잘 맞추거나 덜 틀리는 것이 맥락적 중요성을 가지는지 생각하면서 평가해야하는 것 같다.
- 비율을 볼 때는 수치만 보지말고 그게 현실에서 무슨 의미인지 생각해야 한다고 하는데 모델을 평가하는 metric을 선정하는 것도 비슷한 맥락에서 생각해봐야 하는 것 같다.
혼자 웃었던 점
- 가위 바위 보 분류기
- 한국말로는 가위 바위 보 여서 가위바위보 분류기에서 가위를 0 바위를 1 보를 2로 매핑하여 사용했는데 파일 명이나 설명을 달 때에는 rock scissors paper 순으로 적었다.
- 영어가 모국어인 사람이었으면 바위가 0 가위가 1 보를 2로 했겠지?
- 스페인어면 바위가 0 보가 1 가위가 2 일테고?
- 코드 짤 때 설명을 잘 달아주자.
'공부 > SSACxAIFFEL' 카테고리의 다른 글
SSACxAIFFEL 5주차 : 21' 02.01 ~ 02.05 (0) | 2021.02.05 |
---|---|
SSACxAIFFEL 4주차 : 21' 01.25 ~ 01.29 (0) | 2021.01.31 |
SSACxAIFFEL 3주차 : 21' 01.18 ~ 01.22 ; loss functions (0) | 2021.01.22 |
SSACxAIFFEL 2주차 (0) | 2021.01.15 |
SSACxAIFFEL 1일차 (1) | 2020.12.31 |