Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- KNN모델
- 손실함수
- intent
- JSP/Servlet
- 활성화함수
- 하이퍼파라미터튜닝
- gitclone
- semantic_segmentation
- 비스포크시네마
- 스마트인재개발원
- 내일배움카드
- 2차프로젝트
- 2차 실전프로젝트
- 선형모델 분류
- 교차검증
- 백엔드
- ERD
- MVCmodel
- randomForest
- MSE
- 1차프로젝트
- springSTS
- 프로젝트
- 취업성공패키지
- 안드로이드
- 취업연계
- 국비지원
- 머신러닝
- 크롤링
- 오픈소스깃허브사용
Archives
- Today
- Total
목록라벨인코딩 (1)
또자의 코딩교실
[스마트인재개발원] Machine Learning - KNN 알고리즘(실습과 함께)
이번 포스팅에서는 분류와 회귀에 모두 사용가능한 머신러닝의 모델인 K-최근접 이웃 알고리즘에 대해 알아보자. K-Nearest Neighbors(KNN) 새로운 데이터 포인트와 가장 가까운 훈련 데이터셋의 데이터 포인트를 찾아 예측함. k값에 따라 가까운 이웃의 수가 결정됨. 분류와 회귀에 모두 사용 가능함. KNN 모델의 장단점 이해하기 쉬고 조정없이도 좋은 성능을 발휘함 많은 특성을 가진 데이터 세트와 특성 값 대부분이 0인 희소한 데이터 세트에는 잘 동작하지 않음 전처리 과정이 중요하고 잘 쓰이지 않음 거리를 측정하기 때문에 같은 scale을 같도록 정규화가 필요함 훈련 데이터 세트가 크면(특성, 샘플의 수) 예측이 느려짐 우선, 결정 경계에 대해 이해할 필요가 있다. 결정경계는 가져온 DATA S..
코딩공부/머신러닝 & 딥러닝
2021. 11. 24. 13:32