Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 | 31 |
Tags
- gitclone
- 내일배움카드
- 안드로이드
- 1차프로젝트
- randomForest
- springSTS
- MSE
- intent
- 교차검증
- 2차 실전프로젝트
- 백엔드
- 취업성공패키지
- 오픈소스깃허브사용
- 스마트인재개발원
- 취업연계
- 프로젝트
- ERD
- 활성화함수
- KNN모델
- JSP/Servlet
- 크롤링
- 비스포크시네마
- 2차프로젝트
- 하이퍼파라미터튜닝
- 국비지원
- 손실함수
- 머신러닝
- MVCmodel
- semantic_segmentation
- 선형모델 분류
Archives
- Today
- Total
또자의 코딩교실
[스마트인재개발원] Machine Learning - 일반화, 과대적합, 과소적합 본문
이번 포스팅에서부터는 일반화, 과대적합, 과소적합 등에 대해 알아보자.
머신러닝에 있어서는 일반화 성능이 최대화 되는 모델(모델 복잡도 곡선에서의 최적점)을 찾는 것이 목표이다.
Generalization 일반화
훈련 세트로 학습한 모델이 테스트 세트에 대해 정확히 예측하도록 하는 것.
(시험에 대해 답이 객관식으로 모두 지정되어 있음)
Overfitting 과대적합
(=데이터가 조금만 달라져도 민감하게 반응함)
특징이 너무 많아 훈련 세트에 너무 맞추어져 있어 테스트 세트의 성능이 저하됨.
너무 상세하고 복잡한 모델링을 하여 훈련데이터에만 과도하게 정확히 동작하는 모델.
Inderfitting 과소적합
(=특징이 적어 훈련data를 충분히 반영하지 못함)
특징 하나정도만 있는 정도로 훈련세트를 충분히 반영하지 못해 훈련 세트, 테스트 세트에서 모두 성능이 저하됨
모델링을 너무 간단하게 하여 성능이 제대로 나오지 않는 모델.
과대적합과 과소적합의 해결방법 :
주어진 훈련 데이터의 다양성 보장
다양한 데이터 포인트를 골고루 나타내야한다.
일반적으로 데이터 양이 많으면 일반화에 도움이 된다.
하지만 편중된 데이터를 많이 모으는 것은 도움이 되지 않는다.
규제(Regularization)을 통해 모델의 복잡도를 적정선으로 설정한다.
'코딩공부 > 머신러닝 & 딥러닝' 카테고리의 다른 글
[스마트인재개발원] 근본중의 근본) iris 데이터를 활용한 KNN 분류실습 (0) | 2021.12.08 |
---|---|
[스마트인재개발원] Kaggle 경진대회 (스압주의) (0) | 2021.12.06 |
[스마트인재개발원] 머신러닝을 통한 Kaggle 데이터 분석하기 (0) | 2021.11.29 |
[스마트인재개발원] Machine Learning - KNN 알고리즘(실습과 함께) (0) | 2021.11.24 |
[스마트인재개발원] Machine Learning - 개요 (0) | 2021.11.23 |
Comments