본문 바로가기

[코드스테이츠]AI18

[AI 부트캠프]3주차 총 복습 이걸 이제야 쓰다니....프젝까지 다 끝나고..... 우선 감상부터 쓰겠다.... 3주차때 멘탈 나간 거 인정하겠다... 문과로써 대학에 처음 가서 들은 자연계 과목이 기초수학(선형대수)였고, 행렬 열심히 더하고 빼고 하는 거 재밌어서 열심히 들었던 기억이 있다. 그러다 벡터 개념 나오면서 차원..? 무슨 차원...? 이러다 과감히 때려치웠더랬다. 나에게 벡터는 그런 녀석... 통계를 공부할 때도 우린 주어진 데이터를 표준편차 구하고 오차 구하고 최소제곱법 가지고 유의미한 숫자를 뽑아내는 것에 집중했지, 그 데이터를 직접 가공할 일이 적었다. 그래서 솔직히 너무 어려웠다. 내용이 어려운게 아니라 뭔지 알겠는데, 뭔지 모르겠는... 가장 위험한 상태였다고 할 수 있겠다. 확실히 깨달았다. 데이터 사이언티스.. 2022. 4. 26.
[AI 부트캠프]2주차 총 복습 비지니스신에서는 귀무가설은 현재 행하고 있는 것, 대립가설은 새로운 시도 -> AB Test 가설검정은 기본적으로 보수적인 입장. 그래서 기본적으로 귀무가설을 채택하고 싶어함. 완전히 확실한 대립 가설일 경우에만 채택하고 싶어함 p-value : 귀무가설이 사실일 때, 우리가 얻은 통계치(sample의 표본 등)나 대립 가설에 가깝게 extreme 할 확률 2022. 4. 11.
[S1-Week2]Bayesian Warm-up https://youtu.be/Y4ecU7NkiEI Session(N112) 베이지안은 정보를 "update" 해서 결과에 반영하는 인공지능의 핵심! 베이지안은 B라는 추가 정보를 바탕으로 한 A의 확률 = P(A | B) TPR : True Positive Rate (= 민감도, true accept rate) 1인 케이스에 대해 1로 잘 예측한 비율.(암환자를 암이라고 진단 함) FPR : False Positive Rate (= 1-특이도, false accept rate) 0인 케이스에 대해 1로 잘못 예측한 비율.(암환자가 아닌데 암이라고 진단 함) 손풀이 코드구현 # 베이지안 계산을 위해서는 4개의 변수가 필요합니다. p_pos_used = 0.99 # True positive .. 2022. 4. 7.
[S1-Week2]Confidence Interval Warm-up 중심극한정리(CLI) : 모집단의 분포와 상관없이 표본들의 평균은 정규분포를 따른다. Session(N112) 여러 그룹을 검정할 때, ttest 여러번 보다 한 번에 분산 검정하는 게 훨씬 나음. 그 때 사용하는 게, F-value (F-value 크다 = 다른 그룹끼리의 분포가 다를 것이다) f_oneway(g1,g2,g3) 중심극한정리는 표본의 분포가 정규분포를 따른다(=회수의 이슈라고만 얘기하긴 애매) 큰 수의 법칙은 표본수(n)이 커지면 모평균에 가까워진다(=표본의 크기 이슈) 정리하면, 큰 수의 법칙은 표본의 크기, 중심극한정리는 표본이 적당히 크다는 전제하에 회수가 중요 Quiz Coding 랜덤추출 import numpy as np s1 = df.sample(n=20, ran.. 2022. 4. 6.