Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- 비스포크시네마
- 선형모델 분류
- 취업연계
- 활성화함수
- MSE
- 하이퍼파라미터튜닝
- 프로젝트
- 손실함수
- intent
- 내일배움카드
- randomForest
- JSP/Servlet
- KNN모델
- springSTS
- 스마트인재개발원
- 교차검증
- 머신러닝
- 국비지원
- 취업성공패키지
- 1차프로젝트
- 오픈소스깃허브사용
- gitclone
- 백엔드
- 크롤링
- semantic_segmentation
- ERD
- 2차 실전프로젝트
- MVCmodel
- 2차프로젝트
- 안드로이드
Archives
- Today
- Total
목록과소적합 (1)
또자의 코딩교실
[스마트인재개발원] Machine Learning - KNN 알고리즘(실습과 함께)
이번 포스팅에서는 분류와 회귀에 모두 사용가능한 머신러닝의 모델인 K-최근접 이웃 알고리즘에 대해 알아보자. K-Nearest Neighbors(KNN) 새로운 데이터 포인트와 가장 가까운 훈련 데이터셋의 데이터 포인트를 찾아 예측함. k값에 따라 가까운 이웃의 수가 결정됨. 분류와 회귀에 모두 사용 가능함. KNN 모델의 장단점 이해하기 쉬고 조정없이도 좋은 성능을 발휘함 많은 특성을 가진 데이터 세트와 특성 값 대부분이 0인 희소한 데이터 세트에는 잘 동작하지 않음 전처리 과정이 중요하고 잘 쓰이지 않음 거리를 측정하기 때문에 같은 scale을 같도록 정규화가 필요함 훈련 데이터 세트가 크면(특성, 샘플의 수) 예측이 느려짐 우선, 결정 경계에 대해 이해할 필요가 있다. 결정경계는 가져온 DATA S..
코딩공부/머신러닝 & 딥러닝
2021. 11. 24. 13:32