RNN, LSTM, seq2seq 모델
·
AI Tech 7기/ML LifeCycle
1. RNN  RNN 이란 시계열 데이터를 처리하기 위한 모델로서 순환신경망을 의미한다. 이전까지는 입력에서 출력층 방향으로 진행이 되는 순방향 신경망이었다면, RNN은 결과값이 이전 노드 or 자기자신으로 돌아가는 구조이다. 이러한 형태를 가지며, 각 계층은 그 계층으로의 입력과 이전 계층의 출력을 받는다. 즉, 현재 내 계층의 정보를 다음 시점으로 넘겨준다. 여기서 주의할 점은 t에 따라 RNN 계층이 존재하므로 각 계층에 입력되는 W 가중치 파라미터가 여러개 존재한다고 생각할 수 있지만, 실질적으로 하나다.(장점)즉, 시각 t에 대하여 모두 같은 가중치를 가지고 학습하고, 역전파를 통해 가중치가 업데이트 되면 모든 t에 대해서 동일하게 적용되기 때문에 가중치가 공유되는 방식이다. 그렇기 때문에 입력..
신경망 모델 학습 과정
·
AI Tech 7기/ML LifeCycle
목차 1. Activation fucntion2. Initialize weights3. Loss function4. Backward propagation5. Optimization 5-1. Learning rate scheduler 신경망 모델은 입력층, 은닉층, 출력층으로 구성되어 있으며 선형 모델과 달리 비선형 활성화함수들을 통해 비선형 관계를 학습할 수 있다. 따라서 더 복잡한 패턴을 학습할 수 있으며 모델의 표현력이 풍부해진다.  신경망 모델의 학습 과정과 추론 과정을 순서대로 살펴본다면,  1. forward propagation (순전파) : 입력 데이터가 모델을 통과하여 최종적으로 예측된 결과를 생성한다. 2. Loss function (손실 계산) : 예측값과 실제값 사이의 차이를 손실함수..
선형회귀, k-NN, 선형분류, 소프트맥스
·
AI Tech 7기/ML LifeCycle
목차 0. Linear Regression vs Linear Classifier1. Linear Regression2. k-NN 3. Linear Classifier4. Softmax Classifier  0. Linear Regerssion vs Linear Classifier 시작하기 앞서 선형모델을 사용하는 선형 회귀와 선형 분류에 대해서 정리하고자 한다.  Linear RegressionLinear Classifier정의연속적인 값을 예측하는 회귀 문제클래스를 예측하는 분류 문제출력값 형태예측된 연속형 변수클래스 별 score (클래스 레이블 또는 확률)평가 지표MSE, MAE, RMSE크로스 엔트로피 손실활성화 함수일반적으로 사용하지 않음시그모이드(이진분류), 소프트맥스(다중분류)목적실제 값과 ..
머신러닝 기초
·
AI Tech 7기/ML LifeCycle
목차1. 인공지능, 머신러닝, 딥러닝 2. 지도학습, 비지도학습, 강화학습 3. 머신러닝 라이프 사이클 1. 인공지능 > 머신러닝 > 딥러닝인공지능 : 인공 + 지능 기계가 인간처럼 지능을 가지고 하는 일 (인간의 인지 능력을 기계가 모방)머신러닝 : AI의 하위 분야, 프로그래밍이 되어 있지 않아도 데이터셋으로부터 학습, 예측, 결정 하는 시스템 (데이터로부터 패턴 인식), (어떠한 작업 T에 대하여 경험 E와 함께 성능 P를 향상시킨다) 머신러닝 작업을 하려면 T, E, P가 확실히 정의되어야 한다.)딥러닝 : 머신러닝의 하위 분야 (신경망 기반 모델) 2. 지도학습 VS 비지도학습 VS 강화학습- 지도학습 : 훈련데이터를 통해서 정답 레이블을 함께 학습시켜 원하는 결과를 얻도록 학습 ex) 분류, ..
[1주차] 회고록
·
AI Tech 7기/회고록
부끄러우니까 가독성을 낮추기 위해 색 변환.. 수요일까지만 해도 엄청난 학습양과 쏟아지는 지식에 허덕이고 할 게 너무 많아서 ( 아직 수요일이라니 + 수요일이라 다행이다 ) 느낌이었는데 막상 금요일이 되니까 내가 한 주동안 뭐했더라.. ㅋㅋㅋㅋㅋㅋ 로 남았다. 일단 일주일동안 느끼면서 다음주에는 조금 이런식으로 해봐야겠다 느낀건 1. 학습 내용정리는 바로바로 할 것!         2. 모르는 게 있으면 일단 후순위 .. 라고 하면 무책임하지만 상대적으로 오랜 시간을 서칭해야하기 때문에 따로 메모를 해두자!3. 아침 시간을 좀 활용해볼 것.. 공식적으로 10시 시작이지만 이전 시간이 너무 아무것도 안하는 느낌이라 8시 기상 -> 9시까지 준비를 해서 한 시간동안 알고리즘 문제라도 풀어봐야겠다. 4. 그리..
pytorch 헷갈리는 함수 정리
·
AI Tech 7기/pytorch
목차0. id() vs data_ptr() 1. view() vs reshape() - shape 변경2. flatten() vs squeeze() - dim 차원 축소3. cat() vs stack() - tensor 연결4. expand() vs repeat() - tensor 확장   0. id() vs data_ptr()id(object) : 객체의 고유성을 반환tensor.storage().data_ptr() -> int : tensor가 저장되어 있 메모리 주소를 반환 * 아직 잘 모르겠음.. 수정예정  1. view() vs reshape() - shape 변경 임의의 tensor가 주어질 때 tensor의 shape을 변경하는 가장 대표적인 메소드다.  view() : 메모리가 연속적으로 ..
sweetpotato7
인삼밭의 고구마