3월, 2022의 게시물 표시

정종영 확통 16~17

 16강 독립사건이란? 한 사건 A가 다른 사건 B가 일어날 확률에 대하여 어떠한 영향도 주지 않을 때 성립 P(B | A) = P(B | Ac) = P(A) 사건 A가 사건 B가 일어날 확률에 대해 영향을 주면 서로 종속 P(B | A) = P(A ∩ B) / P(A) P(A ∩ B) = P(A) P(B)  곱사건의 확률과 각 사건이 발생할 확률의 곱이 같을 때 두 사건은 독립 개념1 P(B) = x P(A∪B) = P(A) + P(B) - P(A∩B) 4/5 = 1/3 + x - 1/3x (12 - 5) / 15 = 2/3x x = 7/15 X 3/2 = 7/10 답 : 3/10 개념2 P(B) = 2/3 P(A | B) =  1/2 P(A∩B) / P(B) = 1/2 독립사건이므로 P(A) = 1/2 (실제로 계산해도 그렇게 나옴) 2/3 X 1/2 = 1/3 개념3 P(A) = 3/4  독립사건이므로 교집합은 곱셈과 같음 P(A) X (B) = 1/2 3/4x = 1/2 x = 1/2 X 4/3 x = 2/3 17강 독립시행 - 각 시행의 결과가 다른 결과에 영향을 주지 않는 것 동일한 조건에서 어떤 시행을 여러 번 반복할 때 각 시행이 다른 시행에 영향을 주지 않음(매회 사건이 서로 독립) 개념1 6C5 X 1/2 5제곱 X  1/2 = 3/32 개념2 1 - P(0) 1 - 4C0 X 1/2 0제곱 X 1/2 4제곱 = 15/16 개념3 3C1 X 1/6 1제곱 X 5/6 2제곱 25/72 개념4 P1 = 4C2 X 2/3 2제곱 X 1/3 2제곱 = 6 X 4/9 X 1/9 = 8/27 P2 = 3C2 X 1/2 2제곱 X 1/2 1제곱 = 3 X 1/4 X 1/2 = 3/8

정종영 확통 14~15

사건 A가 일어날 확률 - P(A) = n(A) / n(S) 합사건 - A∪B, 사건 A 또는 B가 일어나는 사건 교사건 - A∩B, 사건 A와  B가 동시에 일어나는 사건 배반사건 - A와 B가 동시에 일어나지 않을 때 A∩B = 공집합 A의 여사건 - 사건 A에 대하여 A가 일어나지 않는 사건, 기호 : Ac 덧셈정리 P(A∪B) = P(A) + P(B) - P(A∩B) 두 사건 A, B가 서로 배반사건이면 P(A∩B) = 0이므로 P(AUB) = P(A)+P(B) 여사건의 확률  P(Ac) = 1 - P(A) (A∩B)c = Ac∪Bc, (A∪B)c = Ac∩Bc  드모르간 법칙 성립 P(Ac∪Bc) = 1 - P(A∩B), P(Ac∩Bc) = 1 - P(A∪B) 개념1 P(A∩Bc) = P(A-B) = 1/4 P(Ac∪Bc) = P(A∩B) = 1/5 둘이 더해서 9/20 그걸 여집합으로 하면? 11/20 개념2 1/6 + B = 1/2 B = 1/3 개념3 P(A∩Bc) = P(A-B) = 1/6 P(Ac∩B) = P(B-A) = 1/6 P(A∪B) = P(A+B) = 2/3 2/3 = 1/6 + 1/6 + x x = 1/3 개념4 P(Ac∩B) = P(B-A) = 공집합 B는 A의 부분집합 B = 3/10 3/5 - 3/10 = 3/10 15강 사건 A가 일어났을 때, 사건 B의 조건부 확률 = P(B | A) = n(A∩B) / n(A) 조건부확률은 전제조건이 생기면서 표본공간 자체가 축소되는 게 핵심 곱셈정리 P(A | B) = P(A∩B) / P(B) 에서 표현하면 P(A∩B) = P(A)P(B | A) = P(B)P(A | B) = 사건 A와 B가 동시에 일어날 확률은 (사건 A가 일어날 확률)X(사건 A가 일어났을 때, 사건 B가 일어날 확률) 예제1 A : a+b=5 Bn : |a-b| = n-1 A - (1, 4), (2, 3), (3, 2), (4, 1) B - 0, 1, 2, 3 0만 경우에 해당됨 ...

정종영 확통 12~13강

이미지
이항정리에서 괄호는 상자, 제곱은 상자의 갯수 각 항은 이항정리의 빌반항 nCr = 이항계수 (x+1)의 n제곱  = xn xn-1 xn-2 x2 x 1 = nC0 nC1 nC2 nCn-2 nCn 이항정리 성질 x = 1 대입하면 2의 n제곱 = nC0 + nC1 + nC2 + nC3 + ... + nCn 총합 = 연속합 교대합 =  x.= -1을 대입하면? nC0 - nC1 + nC2 - nC3 부호 교대 짝수합 = 2n제곱 = 2 X (nC0 + nC2 + nC4 + ...) 홀수합 = 2n제곱 = 2 X (nC1 + nC3 + nC5 + ...) 절반합 = n이 홀수면 n+1/2 개의 항의 합과 후반부 n+1/2개의 항의 합이 2n-1제곱으로 같음 홀수 번째 합의 계수들의 합 = 짝수 번째 계수들의 합 = 이항계수의 총합의 절반 이항정리의 규칙 - 파스칼 삼각형 개념1 1. nCr + nCr+1 = n+1C(큰 쪽 사용) 7C3 2. 8C3+8C4 9C4 3. 4C4=1=5C5 5C5+5C4=6C5 6C5+6C4=7C5 7C5+7C4=8C5 8C5+8C4=9C5 개념2 1. 6C0+6C1+6C2+6C3+6C4+6C5+6C6 = (1+1)6제곱 = 64 2. 7C0과 7C7은 각각 1과 같고 둘이 빠졌으니 2의 7제곱 - 2 = 126 3. nC0부터 nCn까지 부호가 교대로 나타나면 모두 더했을 때 0 nCr과 nCn-r은 같기 때문 4. 6C0 ... 6C6 짝수 형태기 때문에 2의 6제곱 / 2 = 32 개념4 2차항의 계수 구하기 2제곱부터 2차항의 계수가 나옴 (1+x)2제곱 = 2C2 = 3C3 + (1+x)3제곱 = 3C2 + (1+x)4제곱 = 4C2 4C3 + 4C2 = 5C3  5C3 + 5C2 = 6C3 최종적으론 12C3 = 12 X 11 X 10 / 3X2 = 220 13강 수학적 확률 = 사건 A가 일어나는 경우의 수 / 일어날 수 있는 모든 경우의 수 확률은 경우의 수 들 간의 비율 집합과의 관련성 시행 ...

기계학습 2강

기계학습에 필요한 세 가지 수학 - 목적함수 - 최적화 알고리즘 - 제어 사람 - 데이터 수집 수학은 선형대수, 확률과 통계, 최적화 3차원 이상의 구조를 가진 숫자 배열 - 텐서 스칼라(0차원 텐서), 벡터(1차원), 행렬(2차원) 전치행렬 - transpose 연산을 통해 가로 벡터 형태의 벡터형태로 나타낼 수 있음 행렬 - 분배법칙과 결합법칙은 성립하지만 교환버칙은 비성립 내적 - 차원이 같은 벡터에서 스칼라 값을 얻을 수 있는 연산(dot) 역행렬 - 정사각행렬에 대해서만 정의 확률분포 - 다수의 변수에 관한 확률분포 - 동시에 x = x이고 y = y일 확률 베이즈 정리 - x와 y가 같이 일어날 결합확률 = y와 x가 같이 일어날 결합확률 기계학습에서 최대 우도법 신경망이 784 - 100 - 100 - 100 - 10 구조일 때 784 * 100 + 100 * 100 + 100 * 100 + 100 * 10 = 99400(바이어스 무시) 엔트로피 - 확률분포의 무질서도 또는 불확실성 측정 최적화 목적함수가 최저값을 갖는 지점 = 기계학습의 분류 및 예측 오류가 가장 적을 곳 기계학습에서는? 훈련집합만 주어지고 미분을 계산하면서 최저점 f(x1, x2) 찾는 문제 최적화 알고리즘 - J(세타)를 최소로 하는 최적해 세타^를 찾는 알고리즘 미분(Differentiation) - 1차 도함수는 x가 미세하게 증가하였을 때 함숫값의 변화율을 알려줌 전역 최적해 - x의 정의역 전체에 걸쳐 최소인 점 지역 최적해 - 주변에서는 최적이지만 정의역 전체로 보면 최적해가 아닌 것 높은 차원의 공간에서 전역 최적해를 찾는 일은 매우 어려우므로 실제로는 지역 최적해로 만족하는 경우도 많음 실제 문제에서는 지역 최적해를 찾는 것으로 만족하는 경우가 많음 야코비안 행렬 - d개의 매개변수와 m개의 함수가 존재할 때 m개의 함수 각각을 d개의 매개변수로 편미분한 도함수를 행렬로 표현한 것 경사 하강법 - 샘플의 그레이디언트를 평균한 후 한꺼번에 갱신

기계학습 1강

인공지능 > 머신러닝 > 딥러닝 포함관계 딥러닝 - 모델이 고차원적으로 입력 데이터를 파악하여 인간 수준까지 판단할 수 있는 영역 string AI - 공상과학영화 수준의 강한 ai weak AI - 공장 자동화, 특정 일 수행하는 로봇들 빅데이터 3요소 - 3V Volume(기가바이트 이상의 대용량 데이터 구성) Variety(여러 형태의 데이터, 텍스트, 이미지, 숫자 등의 데이터를 다룸) Velocity(데이터를 처리하는 속도가 실시간으로 빠르게) 5V로 표현할 경우엔 Value와 Veracity(진실정, 정확성) 포함 매개변수를 잘 찾는 것이 데이터를 잘 설명하는 수식을 찾는 과정 - 학습 혹은 훈련 트레이닝 기계학습 활용사례 - 구글 번역, 네이버 파파고, 쇼핑몰의 추천 시스템 기계 학습의 초기에 기여한 3가지 공개 데이터베이스 Iris, MNIST, ImageNet 지식 추출 데이터 입력 데이터 전처리(데이터 통합, 정규화, 속성 선택, 자원 축수) 데이터 마이닝(패턴 검색, 연관성 & 상관관계, 분류, 클러스터링 데이터 후처리(패턴평가, 패턴선택, 패턴 해석, 패턴 시각화) 패턴 추출 이상치(Outlier) - 변수가 가질 수 없는 값 또는 아주 희귀한 값 ex : 나이가 900살, 키 400cm 결측치 - 운영상의 오류, 사람의 실수 등으로 변수가 실제 값을 가져아 하지만 누락된 경우 둘 다 데이터 정화 작업에서 처리 정성적 변수 -  특정한 속성을 가진 자료, 일반적으로 사칙 연산 적용 불가능 ex : 성별, 혈액형 정량적 변수 - 많고 적음을 나타내는 수치로 된 자료, 사칙 연산 가능 ex : 속도, 온도, 나이 단변수 - 히스토그램, 박스플로 다변수 - 상관관계표, 산점도행렬 차원 감소 방법 1. 변수 감소 2. 변수 추출 모델의 과소적합 - 모델의 용량이 작아 오차가 클 수 밖에 없는 현상 - 비선형 모델을 사용하는 대안 모델의 과잉적합 - 모델이 데이터를 설명하기에 너무 복잡한 형태 - 규제 등을 사용하여 모델 ...

머신러닝 2강 정리

머신러닝 1. 경험에 의해 배운다 2. 경험에 의해 퍼포먼스가 늘어남 Function Approximation - 실제에 거의 가깝게 동작하는 함수 Find-S Algorithm - 데이터에 들어있는 모든 인스턴스 중 하나의 인스턴스 X가 긍정이면 모든 feature를 판단 Version Space - 많은 hypotheses 가능 Candidate Elimination Algorithm - 가장 Specific 스페이스와 가장 general한 스페이스  Entropy - 랜덤 variable가 얼마나 불확실한지 정의 Conditional Entropy = feature variable이 있을 때 흥미가 있는 entropy 정의 Linear Regression - 선형회귀 

8, 9강 정리

1. 홀수 X 홀수여야 계산값도 홀수 성립 9 이하의 홀수는 총 5개 5C2 공식 성립 = 5 X 4 / 2 X 1 = 10개 2. 서로 다른 두 명에게 세 개의 연필 나누어줌 - 2H3  서로 다른 두 명에게 네 개의 볼펜 나누어줌 - 2H4 2H3 X 2H4 = 4C3 X 5C4 = 4 X 5 = 20 3. {3, 4, 5, 6}, 이미 순서가 정해져있어서 4개 중에 3개가 중복없이 들어감 4C3 = 4 4. nHr = n+r-1 C r 3H7 = 9C7 = 8C7 + nC2 9 X 8 / 2 = 8 + n(n-1) / 2 n(n-1) = 56 n = 8 5. 1 + 3 => 5C1 X 3C3 = 5 2 + 2 => 5C2 X 32 = 10X3 = 30 3 + 1 => 5C3  3C1 = 10 X 3 = 30 = 65 6. A, B를 빼면 남은 사람은 다섯명 P 3 Q 2 = 5C3 X 2C2 = 10 P 2 Q 3 = 5C2 X 3C3 = 10 = 20 기본 4 a+b+c = 7 3H4 = 15