
선형 회귀식개념nn.Linear가 하나 있는 모델선형식은 모든 데이터를 직선으로 예측하기 때문에 학습이 매우 빠르다는 장점이 있지만, 데이터 내 변수들은 일반적으로 비선형 관계를 갖기 때문에 선형 모델을 가지고 예측하는 것은 한계 코드nn.Linear(N, M, bias = True) # N : 입력변수의 개수, M : 출력 변수의 개수 다층 신경망(Multi-layer Perceptron : MLP)개념nn.Linear( )을 줄지어 여러 층으로 구성된 깊은 신경망 코드🎀 __init__ : 필요한 변수들을 정의⚠ torch.nn의 모듈(nn.Module)을 사용하기 위해서 반드시 super().__init__()을 해주어야 한다.super() : 상속받은 부모클래스를 의미한다. 부모 클래..

🔎 텐서 합치기torch.catconcatenate 해주는 함수로써 concatenate하고자 하는 차원을 증가시킨다. (단, 차원의 수는 유지)concatenate하고자 하는 차원을 지정해주면 그 차원으로 두 텐서의 차원을 더한 값으로 변경dimension 지정해주지 않으면 default=0으로 설정(예를 들어) 10x2, 10x2인 두 텐서가 있을 때, cat 기준이 0이면 20x2, 1이면 10x4import torchbatch_size, N, K = 3, 10, 256x = torch.rand(batch_size, N, K) # [M, N, K]y = torch.rand(batch_size, N, K) # [M, N, K]output1 = torch.cat([x,y], dim=1) #[M, N+..

계속 업데이트 예정 ✨ 🔎 모듈nn.Parameter>>> self.cls_token = nn.Parameter(torch.randn(1, latent_vec_dim))>>> self.pos_embedding = nn.Parameter(torch.randn(1, num_patches+1, latent_vec_dim))모델을 업데이트 할 때 같이 업데이트 되는 변수사용자로부터 직접 받는 값은 아니지만 학습이 가능해야 하는 변수가 필요하다면 위와 같이 파라미터로 정의ViT에서 cls_token, pos_embedding은 외부 변수가 아니지만 latent_vec_dim, num_patches를 이용해서 만들어 사용해야 한다. 🔎 함수torch.repeat( ) vs torch.expand( )1..

💡 모델 구조 출력 간단하게 모델 구조 출력 그냥 내가 만들어 놓은 (모델)클래스 이름을 print하면 된다. torchsummary 라이브러리 ! pip install torchsummary summary(model, input_size = (channels, H, W)) inpust_size를 넣어서 output shape와 parameter 수 확인 가능 단, 모델 클래스에서 def __init__() 안에 self 말고 다른 파라미터가 있다면 그 값이 뭔지 정의해 주어야 한다. ex) input_shape = (3, 256, 256), num_rersidual_blocks=9 처럼 pytorch_model_summary 라이브러리 ! pip install pytorch-model-summary s..
pip install BeautifulSoup4 위의 코드를 터미널에 쳤을 때, no module named bs4라고 떴다. 주피터 랩에서 커널을 내껄로 지정해서 실행하고 있었는데 NLP 쪽이 아니다 보니 저걸 깔지도 않았었네.. 쨌든 까먹어가지고 구글링 ! import sys !{sys.executable} -m pip install BeautifulSoup4 터미널에서 파이썬 환경을 바꿔야 하는 번거로움이 있는데, 감사하게도 위의 코드를 발겼했다. 저거 입력하고 다시 pip install ~ 하면 됨.