일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | ||||
4 | 5 | 6 | 7 | 8 | 9 | 10 |
11 | 12 | 13 | 14 | 15 | 16 | 17 |
18 | 19 | 20 | 21 | 22 | 23 | 24 |
25 | 26 | 27 | 28 | 29 | 30 | 31 |
- 컨설팅
- 코랩
- 부트캠프
- 국비지원교육
- 데이터시각화
- 선형대수학
- 파이썬
- 주성분분석
- 데이터사이언스
- 캐글
- 빅데이터
- 로지스틱회귀분석
- RA
- 웜업
- AI부트캠프
- 컨설팅펌
- BCG
- 기계학습
- 디지털트레이닝
- 컴퓨터공학
- 비전공자
- t-test
- PCA
- 맥킨지
- K-Digital Training
- 코드스테이츠
- 웹스크래핑
- Ai
- 인공지능
- 다중회귀분석
- Today
- Total
목록AI부트캠프 (19)
94년생 스피노자

데이터 모델의 종류는 정말로 다양하다. 모델도 다양하지만 파라미터도 다양하다. 선택지가 많다보니 무엇이 최선인지 알기가 쉽지가 않다. 이번에는 최선의 선택을 알아보는 과정에 대한 이야기다. 1. Machine Learning Fundamentals: Cross Validation https://www.youtube.com/watch?v=fSytzGwwBVw 모두 행복하길 -끝-

이번주는 분류모델을 만들고 있다. 애써 만든 분류모델은 어떻게 평가할 수 있을까. 기본적으로 3가지 지표가 있다. 정확도(Accuracy): 분류를 올바르게 한 비율(True는 True로, False는 False로 판단한 비율) 정밀도(Precision): True로 판단한 것들 중 실제로 True인 비율 재현율(Recall): 실제로 True인 것들 중 True로 판단한 비율 각 평가지표는 목적하는 바가 다르다. 예시로 초기에 암을 진단하기 위해서는 재현율이 중요하다. 재현율이 1이 되는 가장 쉬운 방법은 아무나 암이라고 판정하는 것이다. 하지만 이럴 경우 정밀도는 떨어지게 된다. 밸런스있게 판단하는 모델을 위해 Receiver Operating Characteristic(ROC)이 등장한다. 위 그래..

저번에는 결정 트리에 대해 배웠다. 결정 트리의 문제를 과적합이 심하다는 것이다. 이를 해결하기 위해 Random Forests 기법이 쓰인다. Random Forests에서는 정말 무수히 많은 Tree Model을 만든다. 그리고 수많은 Tree Model들을 갖고 최적의 예측을 한다. 나무가 모여서 숲이 되는 것이다. Tree Model을 엄청 많이 만들 때는 Random하게 만든다. 그래서 Random Forests인 것이고 과적합을 해결할 수 있는 것이다. 1. StatQuest: Random Forests Part 1 - Building, Using and Evaluating https://www.youtube.com/watch?v=J4Wdy0Wc_xQ 모두 행복하길 -끝-

이번 주는 Tree model에 대해 배운다. Tree model은 마치 나무에서 가지가 뻗듯이 생겨서 붙여진 이름이다. Tree model은 데이터를 분류하기 위해 고안된 모델이다. 예를 들어 포도, 딸기, 그리고 사과를 분류한다고 생각해보자. 우선 색깔을 기준으로 나누면 보라색 그룹에 포도가 들어간다. 빨간색 그룹에는 딸기와 사과가 있어 아직 분류가 완전하지 않다. 그래서 추가적으로 크기를 기준으로 나누면 딸기와 사과도 나뉘게 된다. 이런 식으로 가지치기 해나가는 것이 Tree model의 기초다. 1. Decision Trees https://www.youtube.com/watch?v=7VeUPuFGJHk 2. Let’s Write a Decision Tree Classifier from Scrat..