
파라미터 초깃값은 랜덤할당학습할 때 그래서 랜덤하게 결과가 다르게 나타날 수 있음 스케일링을 반드시 해주자~ MinMaxScaler or Standardization 회귀 모델링nn.Linear(input, output)손실함수는 nn.MSELoss() / Mean Squared Error 로 측정!가중치 없데이트하는 optimizer도 설정 batch_size를 통해서, 학습 단위를 설정 : DataLoader 파라미터에서 설정해준다Epochs : 학습을 얼마나 반복할 것인지 설정 은닉층 HiddenLayer 은, 활성함수를 필요로 한다. 대부분 ReLU 함수 사용=> max(0, x) 라서 음수인 경우에 다 0으로 변환해줌. 비선형 함수라서, 딥러닝 즉, 레이어를 여러겹 쌓는 것이 가능해진다.sigm..