후에서 전을 빼는 것을 잘 기억하기
대응, 쌍체 -> 두 개라는 의미기 때문에 두 개가 관계가 있다!는 것은 rel
ttest_1samp, ttest_ind
import scipy.stats from ttest_rel
# 후 - 전
# a(after) - b(before)
mean = (df['bp_post'] - df['bp_pre']).mean()
print(round(mean,2))
st, pv = ttest_rel(df['bp_post'], df['bp_pre'], alternative = 'less')
print(round(st,4))
print(round(pv,4))
print('기각'if pv<0.05 else'채택')
차이가 있다, 없다
from scipy.stats import ttest_ind
st, pv = ttest_ind(gA, gA)
print(round(st,4))
print(round(pv,4))
print('기각'if pv<0.05 else'채택')
평균은 75이다
75보다 크다
-> two-sided인지 헷갈릴 수도 있으나
기준은 대립가설임!! 크다 -> alternative = 'greater'
75로 수치가 정해짐 -> ttest_1samp
사실 어떤 검정 사용할지는 정해짐!
st, pv = ttest_1samp(scores, 75, alternative='greater')
print(round(st,4))
print(round(pv,4))
print('기각' if pv<0.05 else '채택')
세 가지 다른 교육 방법(A,B,C) 30명 학생 무작위 배정!
일원배치법 -> anova
from scipy.stats import f_oneway
st, pv = f_oneway(gA,gB,gC)
print(round(st,2))
print(round(pv,6))
print('기각'if p<0.05else '채택')
정규성 검성 -> shapiro
+ 등분산성 검정
levene, bartlett, fligner
귀무 : 정규분포 따른다
대립 : 따르지 않는다
!!귀무가설을!!
기각 -> 따르지 않는다
채택 -> 따른다
from scipy.stats import shapiro
st, pv = shapiro(data)
corr
loc 인덱싱(위치기반) -> 원하는 칼럼을 지정해도 조음~~
import pandas as pd
corr = df.corr()
#print(corr)
#result = corr['sepal length (cm)'][1]
result = corr.loc['sepal length (cm)','sepal width (cm)']
print(round(corr2,2))
'빅데이터 분석기사 > 작업 유형 3 (stats)' 카테고리의 다른 글
사후검정 이론 및 실습 - 시험 안나올 가능성 높음 (0) | 2023.06.10 |
---|---|
ANOVA 이론 및 실습 (0) | 2023.06.10 |
t-test 실습, 분류모델에서 t-test 활용 함수 (1) | 2023.06.10 |
T-test 이론 (0) | 2023.06.08 |