일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 | 31 |
- 내일배움카드
- 선형모델 분류
- 크롤링
- 머신러닝
- KNN모델
- 오픈소스깃허브사용
- 활성화함수
- 백엔드
- 스마트인재개발원
- 취업성공패키지
- 취업연계
- MSE
- 하이퍼파라미터튜닝
- springSTS
- semantic_segmentation
- 교차검증
- 2차 실전프로젝트
- 손실함수
- 2차프로젝트
- 1차프로젝트
- 비스포크시네마
- MVCmodel
- ERD
- intent
- 국비지원
- gitclone
- randomForest
- 프로젝트
- JSP/Servlet
- 안드로이드
- Today
- Total
목록스마트인재개발원 (10)
또자의 코딩교실
이번 포스팅에서는 분류와 회귀에 모두 사용가능한 머신러닝의 모델인 K-최근접 이웃 알고리즘에 대해 알아보자. K-Nearest Neighbors(KNN) 새로운 데이터 포인트와 가장 가까운 훈련 데이터셋의 데이터 포인트를 찾아 예측함. k값에 따라 가까운 이웃의 수가 결정됨. 분류와 회귀에 모두 사용 가능함. KNN 모델의 장단점 이해하기 쉬고 조정없이도 좋은 성능을 발휘함 많은 특성을 가진 데이터 세트와 특성 값 대부분이 0인 희소한 데이터 세트에는 잘 동작하지 않음 전처리 과정이 중요하고 잘 쓰이지 않음 거리를 측정하기 때문에 같은 scale을 같도록 정규화가 필요함 훈련 데이터 세트가 크면(특성, 샘플의 수) 예측이 느려짐 우선, 결정 경계에 대해 이해할 필요가 있다. 결정경계는 가져온 DATA S..
이 블로그에 아마도 사담을 적는 것은 처음인듯하다. 내가 이곳에 오기 전까지의 날들을 살펴보면, 무작정 독립하고 나서 생활비를 벌기 위한 알바를 제외하면 그저 내가 자취하던 방에 박혀 하루 종일 시간을 죽이고 있었다는 것. 그러면서 하루하루 유튜브나 넷플릭스에서 10분 단위로 즐기는 짧은 교양이나 코딩 영상 시청이 나의 미래를 도모하는 것의 전부였다. 솔직히 광고가 한 몫 했다. 코딩 관련으로 구글에 좀만 서치를 하다 보면 스마트 인재개발원의 배너광고가 굉장히 많이 뜨는 것을 느낄 수 있을 것이다. 전주에 살던 나는 본격적으로 이대로는 살면 인생이 회복될수 없음을 느꼈다. 여러 생산직도 다녀보고 서비스직에서 일하는 것보다는 내가 다른 사람들과 차별화될 수 있는 기술을 배워서 좀 더 전문적인 분야에서 일하..