일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | ||||
4 | 5 | 6 | 7 | 8 | 9 | 10 |
11 | 12 | 13 | 14 | 15 | 16 | 17 |
18 | 19 | 20 | 21 | 22 | 23 | 24 |
25 | 26 | 27 | 28 | 29 | 30 | 31 |
- 디지털트레이닝
- t-test
- 기계학습
- 컴퓨터공학
- 인공지능
- 다중회귀분석
- BCG
- Ai
- PCA
- 빅데이터
- 코드스테이츠
- RA
- AI부트캠프
- 캐글
- 선형대수학
- 컨설팅펌
- 로지스틱회귀분석
- K-Digital Training
- 파이썬
- 컨설팅
- 데이터시각화
- 데이터사이언스
- 웜업
- 국비지원교육
- 맥킨지
- 부트캠프
- 주성분분석
- 웹스크래핑
- 비전공자
- 코랩
- Today
- Total
목록Ai (12)
94년생 스피노자

주성분 분석은 다차원 데이터를 분류하기 위해 사용된다. 다차원 데이터는 변수를 여러개 가진 데이터를 의미한다. 예시로는 seaborn 패키지에 있는 'penguins' 데이터를 활용할 것이다. 0. 필요 패키지 불러오기 import matplotlib.pyplot as plt import pandas as pd import numpy as np import seaborn as sns from sklearn.decomposition import PCA from sklearn.preprocessing import StandardScaler, Normalizer from sklearn.pipeline import make_pipeline 1. 데이터 전처리 pg = sns.load_dataset('pengui..

이제 슬슬 머리가 매우 아파져온다. 이번에는 차원축소를 하는 방법에 대해 배운다. 0. 차원축소의 필요성 차원은 데이터의 변수를 의미한다. 사람을 설명하기 위해 나이, 키, IQ를 활용한다면 데이터는 3차원이 된다. 물론 3차원 정도에서는 데이터를 분석하는 것에 큰 문제가 되지 않는다. 데이터를 시각화하기도 어렵지 않고 직관적으로 이해할 수 있기 때문이다. 하지만 데이터가 4차원만 되더라도 이해하기가 매우 어려워진다. 변수가 100개라면 상상하다가 미칠지도 모른다. 이런 문제를 해결하기 위해 차원축소가 필요한 것이다. 1. 차원축소 방법 대표적인 차원축소 방법은 Principal Component Analysis(PCA)가 있다. 한국어로는 주성분분석이다. PCA의 핵심은 분산이 가장 큰 분산을 고르는 ..

선형대수학에서 다루는 기본 단위인 벡터를 배워보자. 벡터는 쉽게 말하면 길이와 방향을 가진 선분이다. 그리고 길이는 앞에 특정 수를 곱해서 조절할 수 있다. 간단하게 예를 들어보겠다. 다음 2가지 선택지가 있다고 생각해보자. A : 남쪽으로 20 걸음 걷기 B : 동쪽으로 15 걸음 걷기 여기서 각각의 선택지는 벡터와 같다. 길이(걸음수)와 방향(동서남북)이 주어졌기 때문이다. 앞서 말했듯이 우리는 걸음수를 조정할 수 있다. 0.5*A는 남쪽으로 10걸음 걷기가 되고, -1*A는 북쪽으로 20걸음 걷기가 된다. 만약 우리에게 선택지 A와 B 중 1개 밖에 없다면 어떻게 될까? A가 주어지면 북쪽 혹은 남쪽으로 밖에 이동할 수 없게 되고 B가 주어지면 동쪽 혹은 서쪽으로 한줄로 이동할 수 밖에 없다. 선택..

어제는 선형대수학이 왜 필요한지 간단히 배웠다. 이번에는 선형대수학이 좌표상에서 어떻게 활용되는지 배울 것이다. 뿐만 아니라 공분산과 상관관계에 대해서도 간단히 다룰 것이다. Warm-Up 영상 링크를 아래에 첨부한다. 1. Linear Combinations, Span, and Basis Vectors https://youtu.be/k7RM-ot2NWY 2. Covariance & Correlation https://youtu.be/KDw3hC2YNFc 3. Linear Projection https://youtu.be/aTBtgW7U-Y8 모두 행복하길 -끝-