Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- 국비지원
- intent
- 내일배움카드
- 오픈소스깃허브사용
- 스마트인재개발원
- 백엔드
- 1차프로젝트
- 2차 실전프로젝트
- randomForest
- ERD
- 머신러닝
- springSTS
- KNN모델
- MVCmodel
- 안드로이드
- 취업성공패키지
- 프로젝트
- semantic_segmentation
- MSE
- 하이퍼파라미터튜닝
- 비스포크시네마
- JSP/Servlet
- 활성화함수
- 교차검증
- 선형모델 분류
- 2차프로젝트
- gitclone
- 손실함수
- 크롤링
- 취업연계
Archives
- Today
- Total
목록라벨인코딩 (1)
또자의 코딩교실
[스마트인재개발원] Machine Learning - KNN 알고리즘(실습과 함께)
이번 포스팅에서는 분류와 회귀에 모두 사용가능한 머신러닝의 모델인 K-최근접 이웃 알고리즘에 대해 알아보자. K-Nearest Neighbors(KNN) 새로운 데이터 포인트와 가장 가까운 훈련 데이터셋의 데이터 포인트를 찾아 예측함. k값에 따라 가까운 이웃의 수가 결정됨. 분류와 회귀에 모두 사용 가능함. KNN 모델의 장단점 이해하기 쉬고 조정없이도 좋은 성능을 발휘함 많은 특성을 가진 데이터 세트와 특성 값 대부분이 0인 희소한 데이터 세트에는 잘 동작하지 않음 전처리 과정이 중요하고 잘 쓰이지 않음 거리를 측정하기 때문에 같은 scale을 같도록 정규화가 필요함 훈련 데이터 세트가 크면(특성, 샘플의 수) 예측이 느려짐 우선, 결정 경계에 대해 이해할 필요가 있다. 결정경계는 가져온 DATA S..
코딩공부/머신러닝 & 딥러닝
2021. 11. 24. 13:32